Skip to main content

La OMS como brújula en el uso ético de la Inteligencia Artificial en salud y medicina.

Ética en el uso de la IA – 1

La Inteligencia Artificial implica dilemas en todos los campos, pero la ética en el uso de la IA en medicina es quizás el campo más intrincado. La Organización Mundial de la Salud (OMS) ha sido clave para estructurar una guía ética esencial sobre el uso de dicha tecnología. En este primer artículo, exploraremos una serie de principios emitidos por la OMS para el uso ético de la IA. Adicionalmente, veremos algunos riesgos de la aplicación de los Modelos de Lenguaje Extensos (LLM por sus siglas en inglés) en materia médica.

En enero de 2024, la OMS publicó el documento “Ética y gobernanza de la inteligencia artificial para la salud: orientación sobre modelos de lenguaje extensos”. El mismo marcó una nueva etapa en el objetivo de regular y delimitar el uso de la Inteligencia Artificial en materia médica.

El objetivo es abordar el uso emergente de los LLM en aplicaciones médicas y analizar sus beneficios y riesgos en el cuidado de la salud. Busca asimismo proponer enfoques de gobernanza para garantizar la conformidad con pautas éticas, derechos humanos y seguridad.

Dicho documento se basó en una guía que había emitido la misma OMS en 2021. La misma identifica seis principios éticos para el beneficio público global. Además, realiza algunas recomendaciones para mejorar la gobernanza de la Inteligencia Artificial en materia de salud.

Definiciones clave para la ética en el uso de la IA en medicina

Para entender mejor el contexto al que se refiere la OMS, haremos un breve recorrido por algunas definiciones que emitió la guía.

Inteligencia artificial (IA). Se refiere a algoritmos en sistemas que aprenden de datos para realizar tareas automatizadas sin programación explícita.

Inteligencia artificial generativa (IAG). Es aquella IA que crea resultados basados en patrones aprendidos.

Modelos extensos de lenguaje (LLM). Sistemas que se entrenan con diversos conjuntos de datos más allá del texto. Su enfoque consiste en recibir texto como entrada y generar respuestas también en forma de texto.

Aplicaciones potenciales de la IAG: el diseño y generación de contenido, la simulación y el descubrimiento científico.

Diferencias entre los LLM actuales y otros modelos más antiguos de IA:

  • Los LLM son más versátiles y pueden adaptarse a diversas tareas sin reentrenamiento extensivo, mientras que los segundos son más específicos y menos flexibles.
  • Los LLM tienen interfaces que imitan la comunicación humana, lo que contribuye a su adopción masiva. Esto se debe a que sus usuarios pueden percibir las respuestas como “humanas” aunque el LLM no garantice corrección ni integre normas éticas.

Áreas de aplicación médica

  • Diagnóstico, cuidado y atención clínicos
  • Investigación
  • Desarrollo de fármacos
  • Administración sanitaria
  • Salud pública y su vigilancia

Otras aplicaciones. Además de la salud, los modelos de lenguaje se utilizan en educación, finanzas, comunicaciones y, por supuesto, en ciencias de la computación.

Según la guía de la OMS, la IA debe ser un aliado que mejore la atención de la salud sin comprometer los valores fundamentales de la medicina.


Ética e Inteligencia Artificial en Medicina

Principios éticos para el uso de la Inteligencia Artificial en salud y medicina

Hay ciertos principios que dan luz al camino que deben tomar las tecnologías de IA, y su regulación ética e inclusive jurídica. No debemos perder de vista que la inteligencia humana genera estos sistemas, por lo que nosotros mismos debemos ser capaces de regularlos. Estos principios son:

Proteger la autonomía. Los humanos debemos mantener el control en sistemas de atención médica. Y esto es algo que debe extrapolarse a cualquier otro ámbito.

Los usuarios del servicio de IA deben tener información clara para usar los sistemas de manera segura.

En términos de protección, debe existir un acuerdo o consentimiento informado válido sobre la privacidad de datos y la confidencialidad.

Promover el bienestar humano, la seguridad y el interés público. Bajo este principio, los diseñadores de IA deben cumplir con requisitos regulatorios de seguridad, precisión y eficacia. Deberán tener disponibles medidas de control de calidad y mejorarlas de manera constante.

LA IA NO DEBE CAUSAR DAÑO MENTAL O FÍSICO por enfoques alternativos cuando se aplica a algún tratamiento médico.

Asegurar la transparencia, “explicabilidad” e inteligibilidad. Las tecnologías de IA deben ser comprensibles para desarrolladores, profesionales médicos, pacientes y reguladores.

Antes de ser desplegadas, estas tecnologías deben contener información suficientemente documentada. Esto facilitará la consulta y debate públicos significativos sobre cómo se diseñan y cómo deben o no utilizarse.

Las explicaciones que emiten los sistemas de IA deben ser acordes a la capacidad de comprensión del destinatario.

Fomentar la responsabilidad y rendición de cuentas. Cualquier modelo o tecnología de que eche mano la IA debe utilizarse bajo condiciones apropiadas y por personas capacitadas.

Sean pacientes o personal de salud, los usuarios de la IA deberán evaluar el desarrollo y despliegue de los tratamientos generados por ella.

En todo momento deberán observarse principios regulatorios que sean aplicables a cualquier etapa del algoritmo. Las aplicaciones de IA deben estar siempre bajo supervisión humana.

Se deben establecer mecanismos para cuestionar y rectificar decisiones basadas en la IA.

Garantizar la inclusividad y equidad. El diseño y la compartición de la IA se ha realizado con el fin de que permita un uso y acceso amplio y equitativo. Esto es independiente de las características individuales de los usuarios.

La disponibilidad de la tecnología no deberá supeditarse a la capacidad económica de ningún país. Deberá ser igualmente accesible para países de ingresos bajos y medianos.

La IA no puede codificar grupos identificables. Además, minimiza las inevitables disparidades de poder. Es una tecnología que se supervisa y evalúa para identificar efectos desproporcionados sobre grupos específicos de personas.

Promover una IA sensible y sostenible. La IA ha sido programada para ser coherente al promover la sostenibilidad de los sistemas de salud, el medio ambiente y los lugares de trabajo.

Riesgos del uso de los LLM en el diagnóstico y cuidado clínicos

Es obvio que se deben analizar los posibles riesgos que existen al utilizar una tecnología en cualquier materia. Sólo así se pueden encontrar las vías adecuadas para que el uso de estos avances tenga el menor impacto negativo en los seres humanos.

Analizamos cinco posibles riesgos que señala la OMS en el uso de los LLM en el diagnóstico y cuidado clínicos.

1. Respuestas inexactas, sesgadas o falsas. Los LLM pueden producir respuestas incorrectas o sesgadas. Esto se debe a posibles réplicas de fallas en los datos que han sido alimentados a la IA durante su entrenamiento.

El sesgo contextual puede generar recomendaciones inapropiadas para el entorno específico. Al tratarse de tecnologías que cuentan con una biblioteca de información amplia y generalizada, difícilmente tendrán la capacidad de crear un diagnóstico o tratamiento específico.

Los LLM pueden dar respuestas falsas, lo que en otros contextos se ha llamado “alucinaciones de la IA”. Esto se deriva de la falta de entrenamiento específico sobre la materia cuyas respuestas esté desarrollando. Sin duda, esta situación conlleva un riesgo en los diagnósticos médicos.

2. Calidad de datos y sesgo. Los sistemas de IA son propensos a dar respuestas sesgadas o inexactas debido a la baja calidad de datos con los que han sido alimentadas. Esto empeora si han sido entrenados con conjuntos de datos sesgados.

Los datos médicos y de salud, frecuentemente recopilados en entornos de ingresos altos, contribuyen a la generación de algoritmos sesgados.

Los registros electrónicos de salud con errores e inexactitudes pueden afectar la confiabilidad de las salidas de los LLM.

3. Sesgo de automatización. Los LLM pueden fomentar el sesgo de automatización en los profesionales de la salud. Esto llevaría a la comisión de errores que un humano podría detectar.

También preocupa que los LLM y su uso lleguen a generar una desconexión moral en las decisiones éticas.

4. Degradación de habilidades. Darle un gran rango de competencia a los LLM y las aplicaciones que utilizan IA en materia de salud puede tener consecuencias. Una es que se erosione la competencia de los médicos debido a la transferencia de responsabilidades rutinarias hacia las computadoras.

Debemos tomar en cuenta que los médicos podrían perder la confianza para desafiar las decisiones algorítmicas. También podrían perder la capacidad de realizar tareas médicas sin el apoyo de la IA.

5. Consentimiento informado: Siempre deberá contarse con el consentimiento de los pacientes, y usuarios en general, sobre el uso de la IA para temas médicos.

Será necesario informar a los pacientes sobre la asistencia de la IA en respuestas médicas, especialmente en interacciones virtuales.

Si los pacientes tuvieran opciones limitadas para otorgar su consentimiento al uso de la IA, pueden surgir desafíos al incorporar los LLM en la práctica médica.

Desde la perspectiva de la OMS, la adopción de los LLM en la investigación médica es un paso emocionante. Pero requiere de un compromiso serio con la ética y la equidad


En este viaje hacia el futuro de la medicina, la brújula ética nos indica que la tecnología debe ser un socio confiable. Es necesario que promueva el bienestar global y no sea un obstáculo que perpetúe divisiones y desafíos éticos.

En entregas futuras seguiremos analizando los riesgos relacionados con la IA. Esto se refiere a las aplicaciones enfocadas en pacientes, funciones y tareas administrativas. Incluye asimismo la educación y profesionalización de médicos y enfermeros. Y también abarca la investigación científica y médica, así como el desarrollo de fármacos.

ICO: Inteligencia Creativa es una agencia de generación de contenidos, marketing y comunicación digital apoyada por herramientas de Inteligencia Artificial. Entre sus clientes se encuentran AstraZeneca y Lecturio. Para conocer más, visita nuestro sitio.

Facebook Comments

Agustín De Luca

Author Agustín De Luca

More posts by Agustín De Luca