La Inteligencia Artificial en el Diagnóstico Médico
La inteligencia artificial (IA) ha revolucionado el diagnóstico médico, mejorando su precisión y rapidez. Sin embargo, su implementación plantea desafíos jurídicos que exigen un análisis cuidadoso para asegurar una aplicación segura y justa en el ámbito de la salud.
Principales Desafíos
Es indispensable considerar que la IA se alimenta de datos para entrenar a sus algoritmos. Si existen sesgos en los datos, naturales o intencionados, esto se reflejará en el diagnóstico. Si bien los pacientes no necesariamente conocen los sesgos de un médico, tratándose de una IA es relevante que exista un control en los datos que alimentan a los algoritmos para asegurar la mayor calidad y seguridad posible en el diagnóstico.
Responsabilidad en Casos de Diagnóstico Erróneo
La Ley General de Salud y el Código Civil Federal regulan la responsabilidad profesional en los servicios de salud en México, pero no ofrecen claridad sobre el uso de IA en diagnósticos médicos. La falta de regulación específica deja dudas sobre si los desarrolladores del software, los médicos o las instituciones serían responsables en caso de un diagnóstico erróneo. A nivel internacional, la Comisión Europea ha propuesto la Ley de IA de la Unión Europea, que clasifica el uso de IA en salud como de «alto riesgo» y exige a los desarrolladores de IA requisitos de seguridad y control de calidad.
Transparencia y Explicabilidad de los Algoritmos
La NOM-004-SSA3-2012, que establece los requisitos para la historia clínica electrónica, y la Ley General de Transparencia y Acceso a la Información Pública buscan asegurar que los pacientes tengan acceso a información sobre su diagnóstico y tratamiento. Sin embargo, cuando se emplean algoritmos de IA de «caja negra» para el diagnóstico, se limita el derecho de los pacientes a comprender las decisiones médicas. Es necesario que las normativas incluyan requerimientos específicos para que los algoritmos sean explicables y accesibles a profesionales y pacientes. La Guía de Ética de IA de la OMS también recomienda la transparencia en los sistemas de IA empleados en salud, permitiendo que los pacientes y profesionales confíen en los resultados generados.
Consentimiento Informado
La Ley General de Salud y la NOM-004-SSA3-2012 establecen que los pacientes deben recibir información clara y precisa sobre sus tratamientos. En el contexto de la IA, es crucial que el consentimiento informado contemple los riesgos y beneficios específicos de utilizar tecnología basada en IA en el diagnóstico. Esto incluye proporcionar a los pacientes información detallada sobre el uso de IA en sus diagnósticos, como establece la Declaración de Helsinki para la investigación en salud, la cual enfatiza el consentimiento informado en procedimientos médicos innovadores.
Equidad en el Acceso a la Tecnología
La Ley General de Salud en México y la Ley de los Derechos de las Personas Usuarias de los Servicios de Salud apuntan a garantizar el acceso equitativo a servicios de calidad para todos los pacientes. No obstante, la IA en diagnóstico médico se encuentra principalmente en instituciones privadas de alto nivel. Para reducir la brecha de acceso, el Plan Nacional de Salud 2020-2024 prevé la integración de tecnologías avanzadas en el sistema de salud pública, una política que debería incluir el acceso a herramientas de diagnóstico de IA para la población en general.
La inteligencia artificial ofrece un gran potencial para transformar el diagnóstico médico, pero su implementación debe ser considerada debido a sus desafíos éticos y legales. En ECIJA México, orientamos a nuestros clientes para que cumplan con las normativa sanitarias vigentes y así proteger los derechos de los pacientes.
ECIJA México
socios.mexico@ecija.com
+52 55 5662 6840
www.ecija.com