Responsabilidad médica cuando se aplica IA a algoritmos de diagnóstico

Nuevos modelos de Seguros GMX

La IA puede gestionar tareas repetitivas, aumentar la eficiencia al tiempo que reduce las tasas de error en los procesos de trabajo y potencialmente reducir el agotamiento de los cuidadores al manejar tareas administrativas. “La Asociación Médica Estadounidense (AMA) informa que se dedican 20 horas o más por semana a estas actividades y la IA podría aliviar esta carga”, se lee en el artículo titulado Consideraciones sobre la gestión de riesgos de la inteligencia artificial y aumentada para la atención médica, elaborado por la empresa de gestión de riesgos y consultoría de recursos humanos Willis Towers Watson. 

El documento también compare el caso de SutterHealth, con sede en Sacramento, California, que utiliza inteligencia aumentada para redirigir el 20% de los mensajes del portal de pacientes de los médicos a un miembro más apropiado del equipo de atención y brindar consejos anticipados y personalizados a las mujeres embarazadas, lo que lleva a una reducción del 15% en mensajes. 

“Desde la perspectiva del personal, las soluciones digitales y de inteligencia artificial pueden ofrecer una forma de aliviar parte de la carga del equipo de atención y, al mismo tiempo, proporcionar herramientas de capacitación de vanguardia. 

Otro caso abordado por WTW en su reportaje es la demostración realizada por UNC Health, que utilizó otro formato de IA, ChatGPT para ofrecer asesoramiento médico. A ChatGPT se le proporcionó información que incluía el historial de salud del paciente y luego se le preguntó cómo se debía tratar al paciente. Si bien los resultados fueron acertados en cuanto a cómo el médico humano propuso tratar al paciente, el uso de ChatGPT para el diagnóstico médico ha creado cierta controversia y persisten preocupaciones con respecto a imprecisiones e información "inventada" en escenarios similares. 

Existen limitaciones y riesgos para estos procesos de diagnóstico y es imperativo que el profesional de la salud comprenda lo que la IA puede y no puede hacer. Un informe de la Organización Mundial de la Salud señala los desafíos y riesgos asociados, incluida la recopilación y el uso poco éticos de datos de salud, sesgos codificados en algoritmos, así como riesgos para la seguridad del paciente, la ciberseguridad y el entorno. 

Actualmente, las regulaciones sobre IA no existen, diversos países alrededor del mundo han lanzado iniciativas para regular la investigación, el desarrollo y el uso de la inteligencia artificial. Si bien, en regiones como Europa o países como China, Canadá y los Estados Unidos, la implementación de regulaciones avanza conforme evoluciona la tecnología, los países de América Latina se encuentran en etapas muy diferentes de adopción y comprensión de sus efectos. 

“En México, mientras tanto, existe una iniciativa con la que se pretende regular la inteligencia artificial, para lo cual toma en cuenta diversas necesidades en torno a los sistemas que utilizan este tipo de tecnología, y propone una legislación en diversos niveles, que van desde las responsabilidades de los desarrolladores (mantener un equilibrio entre la ventaja para las organizaciones y el desarrollo humano, o generar marcos éticos y de gobernanza para asegurar la seguridad) hasta las posibles afectaciones para los usuarios (desplazamiento laboral, generación de información falsa o suplantación de identidad”, explica la consultora Deloitte en un documento sobre el tema. 

Por su parte, refiere el mismo texto, “el Diagrama para una Declaración de Derechos sobre la Inteligencia Artificial, propuesto por el gobierno de los Estados Unidos, que podría servir como guía para la estructura de diversas regulaciones futuras, toma en cuenta cinco aspectos clave que deben ser considerados para asegurar una evolución positiva de los sistemas de IA. Estos son: 

  

1.Sistemas seguros y efectivos. 

2.Protecciones contra la discriminación, basada en algoritmos. 

3.Privacidad de la información. 

4.Consentimiento y explicación. 

5.Alternativas humanas, consideración y soporte”, comparte Deloitte. 

  

Los retos sobre la mesa 

Sobre temas regulatorios y aspectos éticos de la IA en la industria de la salud, el artículo de investigación elaborado por Mohammad Nazmul Alam de GuruKashiUniversity y Md ShahinKabir de la AmityUniversityDubai, explora los retos de la aplicación de técnicas de la IA explicable, XAI, (Explainable Artificial Intelligence, abreviado XAI) en la atención médica y examina su impacto en la mejora de los resultados de los pacientes, la confianza de los médicos y el cumplimiento normativo. 

De acuerdo con la investigación de Mohammad Nazmul y ShahinKabir  a los médicos y pacientes a menudo les resulta difícil confiar y depender de las recomendaciones impulsadas por IA sin comprender el razonamiento subyacente. Además, los organismos reguladores requieren transparencia para garantizar la seguridad del paciente, el cumplimiento ético y los estándares regulatorios. Sin embargo, la IA explicable ofrece una solución para cerrar la brecha entre la complejidad inherente de los modelos de IA y la necesidad de procesos de toma de decisiones comprensibles en la atención médica, al brindar explicaciones claras de las decisiones tomadas por los modelos de IA, aumentando así la confianza, la comprensión y la responsabilidad en los entornos de atención médica. 

De acuerdo con los expertos, la adopción de la IA explicable (XAI) en la atención médica está sujeta a varias consideraciones legales. Si bien el panorama legal específico puede variar según la jurisdicción, sugieren estos aspectos legales a considerar: 

  

1.Protección de datos y privacidad. Los datos de atención médica a menudo están sujetos a estrictas leyes y regulaciones de protección de datos. Al implementar XAI en el cuidado de la salud, las organizaciones deben garantizar el cumplimiento de estas regulaciones para proteger la privacidad del paciente y asegurar el manejo de la información personal de salud 

2.Consentimiento informado. Es un requisito legal fundamental en el cuidado de la salud. Al utilizar sistemas de IA, incluyendo XAI, es importante obtener el consentimiento informado de los pacientes, explicando claramente el propósito, los riesgos potenciales y los beneficios de las intervenciones o la toma de decisiones impulsadas por IA. Los pacientes deben estar informados sobre la participación de los sistemas de IA y tener la opción de elegir alternativas o darse de baja si lo desean 

3.Regulaciones de dispositivos médicos. Dependiendo de la jurisdicción, los sistemas de IA utilizados en el cuidado de la salud pueden estar sujetos a regulaciones de dispositivos médicos. Los organismos reguladores, como la Secretaría de Salud o la Administración de Alimentos y Medicamentos (FDA) en los Estados Unidos, pueden clasificar ciertos sistemas de IA como dispositivos médicos. El cumplimiento de las regulaciones relevantes, como la obtención de las aprobaciones o autorizaciones necesarias, puede ser requerido antes de implementar XAI en el entorno de atención médica 

4.Responsabilidad y mala praxis. La introducción de sistemas de IA, incluida la XAI, plantea interrogantes sobre la responsabilidad en caso de errores o resultados adversos. Es importante considerar quién es responsable cuando un sistema de IA está involucrado en la toma de decisiones. Los proveedores y las organizaciones de atención médica deben evaluar y abordar los riesgos potenciales y establecer protocolos para manejar situaciones en las que las recomendaciones de IA puedan entrar en conflicto con el juicio clínico. 

5.Derechos de propiedad intelectual. Las organizaciones que desarrollan e implementan sistemas XAI deben considerar los derechos de propiedad intelectual, incluidas las patentes, los derechos de autor y los secretos comerciales. 

La protección de los algoritmos, modelos y otros componentes propietarios del sistema XAI puede ser crucial para garantizar la propiedad y evitar el uso o la replicación no autorizados por parte de los competidores. 

6.Transparencia regulatoria y auditorías. Algunas jurisdicciones están explorando regulaciones que requieren transparencia y auditorías para los sistemas de IA utilizados en dominios críticos como la atención médica. Esto puede implicar hacer que el funcionamiento interno del sistema de IA, incluida la XAI, sea accesible para inspecciones y auditorías regulatorias para garantizar el cumplimiento de los estándares legales y éticos