La inteligencia artificial (IA) está conquistado el mundo. Una de las herramientas que más está creciendo son los grandes modelos de lenguaje (LMM, por sus siglas en inglés). Se trata de un tipo de IA generativa que procesa grandes bases de datos con distintos formatos como texto, imágenes y sonidos. Un ejemplo es el ChatGPT.
Las ventajas de los LMM son claras: ahorran tiempo y recursos, reducen costos y crear contenido innovador, por nombrar algunos beneficios. Sin embargo, cada vez es más evidente el problema de que el ChatGPT no siempre es exacto. Si se le preguntas algo que no sabe, el chatbot dará una respuesta incluso si es incorrecta, incluso argumentará contra los usuarios que sugieran que esto es incorrecto y explicará por qué la respuesta que dio está verdadera.
Esto representa un gran riesgo de desinformación pues uno de los problemas de la abundancia de la información en las plataformas digitales es que en el mismo lugar se puede encontrar información verdadera, falsa, verificada y rumores.
IA generativa en el entorno médico
Los modelos de IA anteriores se limitaban en gran medida a analizar e interpretar datos existentes, pero ahora además son capaces de crear contenido nuevo. Esta capacidad de creación, junto con la facilidad de uso y accesibilidad, ha llevado a un aumento en su adopción y uso por parte de muchos profesionales, incluidos los proveedores de atención médica.
Si bien la aplicación de la IA generativa ha dado resultados prometedores, es fundamental reconocer que esta tecnología no es una panacea. No se puede aplicar universalmente para resolver todos los problemas en todos los entornos de atención de salud. Los médicos y proveedores de atención sanitaria deben implementar IA generativa con criterio para mitigar las consecuencias no deseadas; El uso responsable es clave para aprovechar sus beneficios y al mismo tiempo evitar resultados adversos.
Por ello, la OMS alerta de que algunas de estas utilidades aún no están probadas ni se sabe si ofrecerán los beneficios esperados, lo que hace necesario establecer ciertas normas para su integración y uso con fines médicos y de salud pública. Por ello, lanzó una guía con nuevas orientaciones éticas para fomentar y garantizar un uso seguro en el ámbito sanitario de los grandes modelos de lenguaje (LMM).
Guía de ética de la IA en el sector salud
La guía de ética de la OMS describe más de 40 recomendaciones para que las consideren gobiernos, empresas de tecnología y proveedores de atención médica para garantizar el uso apropiado de LMM y describe cinco aplicaciones de los LMM para la salud:
1. Diagnóstico y atención clínica, como responder a las consultas escritas de los pacientes;
2. Uso guiado por el paciente, por ejemplo, para investigar síntomas y tratamientos;
3. Tareas administrativas y de oficina, como documentar y resumir las visitas de pacientes dentro de registros médicos electrónicos;
4. Educación médica y de enfermería, que incluye proporcionar a los alumnos encuentros simulados con pacientes, y;
5. Investigación científica y desarrollo de fármacos, incluida la identificación de nuevos compuestos.
En resumen, la IA generativa funciona de manera óptima en entornos caracterizados por una alta repetición y un riesgo bajo. Por ello, se sugiere utilizar dicha tecnología en situaciones de bajo riesgo, particularmente cuando los errores tienen consecuencias menores. Este enfoque cauteloso ofrece varias ventajas: permite a los proveedores de atención médica y, lo que es más importante, a los pacientes comprender gradualmente las capacidades de la IA y generar confianza en su utilidad. Además, ofrece a los desarrolladores de IA valiosas oportunidades para probar y perfeccionar rigurosamente sus sistemas en un entorno controlado antes de implementarlos en escenarios de mayor riesgo.