Skip to main content

La Organización Mundial de la Salud (OMS) es pionera en el camino hacia el uso responsable de la inteligencia artificial (IA) en el sector salud y el campo de la Medicina. La guía diseñada por esta organización impulsa la transparencia y equidad. Además, define normas para el desarrollo y aplicación de los Modelos de Lenguaje Extensos (LLM por sus siglas en inglés) en la atención médica.

En esta serie de artículos nos has acompañado en un viaje donde la IA y la ética se entrelazan. Aquí hemos visto cómo la guía de la OMS nos orienta para buscar un entorno transparente y equitativo en el campo de la salud.

En las entregas anteriores analizamos el texto que ha propuesto la OMS para establecer una serie de términos comunes y algunos principios. En una segunda entrega detallamos cómo analiza ciertos riesgos que conlleva el uso de la IA.

Los principios definidos proporcionan orientación sobre los requisitos éticos que deben guiar nuestras decisiones y acciones en este tema. Esto se refiere especialmente a las partes interesadas en el desarrollo, despliegue y evaluación de los LLM en materia de salud. Asimismo, estos principios sientan las bases para que gobiernos y organismos del sector público, junto con investigadores, empresas y usuarios, utilicen la IA.

El desarrollo y despliegue de los LLM avanzan con más rapidez que nuestra capacidad para comprender su capacidad y sus debilidades. Por esto, deben establecerse filtros y normas que regulen el uso de la IA en todas las materias.

La OMS analiza la cadena de valor que participa en el desarrollo y diseño de los LLM en el sector salud, indicando sus etapas críticas:

  1. Diseño y desarrollo de modelos básicos de uso general (fase de desarrollo)
  2. Definición de un servicio, aplicación o producto con un modelo de base de uso general (fase de prestación).
  3. Despliegue de una aplicación o servicio sanitario (fase de despliegue).

Esta división establece también qué actor de la cadena de valor puede abordar los riesgos de manera pertinente, y los principios éticos que debe respetar. También, ayuda a entender el papel del gobierno. Esta entidad aborda los riesgos y aplica las leyes, políticas o inversiones para que los actores de la cadena de valor respeten los principios éticos.

Riesgos en el desarrollo de modelos de fundación

Para empezar, hablaremos de los riesgos que deben abordarse durante el desarrollo de los LLM.

Primero, entendamos qué son los modelos de fundación. Esto es lo que nos dice el Ada Lovelace Institute: los modelos básicos o de fundación son tecnologías de propósito general que funcionan como plataformas para las aplicaciones de IA.

En el desarrollo de modelos de fundación es imperativo abordar riesgos significativos para evitar posibles consecuencias sociales o impactos negativos en los usuarios.

La responsabilidad de eliminar o mitigar estos riesgos recae directamente en los desarrolladores. Son ellos quienes toman decisiones clave durante las fases de diseño y desarrollo. Dichas fases escapan al control de los proveedores e implementadores que utilizan el algoritmo. Un punto crítico de decisión es la elección de los datos utilizados para entrenar un LLM.

La responsabilidad de garantizar la protección de datos, la calidad de los mismos y la mitigación de sesgos es también del desarrollador.

Estos factores, esenciales para tener LLM éticos y efectivos, no pueden ser gestionados únicamente por desarrolladores finales, proveedores o usuarios de la tecnología.

La guía establece ocho riesgos principales que requieren atención durante el desarrollo de modelos de fundación y necesitan regulación gubernamental:

  1. Sesgo, relativo al diseño y datos de entrenamiento. Es crucial abordarlo para garantizar la equidad en los resultados de los LLM.
  2. Privacidad. Salvaguardar la privacidad de los datos de entrenamiento y entradas es una obligación que los desarrolladores deben priorizar.
  3. Preocupaciones laborales. La subcontratación del filtrado de datos para eliminar contenido ofensivo plantea preocupaciones éticas laborales que es necesario abordar.
  4. Huella de carbono y agua. Los impactos ambientales, especialmente en términos de huella de carbono y agua, deben considerarse y minimizarse durante el proceso de desarrollo. Este tema ya lo abordamos en la segunda entrega.
  5. Información falsa, discurso de odio o desinformación. Los desarrolladores deben trabajar activamente para mitigar la generación o propagación de información falsa, discurso de odio y desinformación por parte de los LLM.
  6. Seguridad y Ciberseguridad. Garantizar la seguridad y ciberseguridad de los LLM es fundamental para prevenir el mal uso o consecuencias no deseadas.
  7. Preservar la autoridad epistémica de los humanos. Los desarrolladores deben tomar medidas para preservar la autoridad del conocimiento y la experiencia humanos frente a modelos de lenguaje avanzados.
  8. Control exclusivo de LLM. Considerando el potencial de concentración de poder, deben tomarse medidas para evitar el control exclusivo de los LLM por parte de unas pocas entidades. Es necesario fomentar un panorama de desarrollo más diverso e inclusivo.

Abordar estos riesgos no solo es una necesidad técnica, sino también un imperativo moral para crear modelos de fundación responsables, éticos e impactantes. Los desarrolladores, los responsables de políticas y la sociedad toda deben colaborar para establecer marcos sólidos de desarrollo y despliegue de los LLM. Es indispensable asegurar su contribución positiva al mundo en general.

Abordar estos riesgos no solo es una necesidad técnica, sino también un imperativo moral para crear modelos de fundación responsables, éticos e impactantes.

Estas reflexiones nos llevan a plantear un par de preguntas e iniciar la conversación sobre los datos que contienen los LLM:

¿Qué medidas pueden adoptar los desarrolladores para hacer frente a los riesgos de los LLM?

Los desarrolladores deben utilizar medidas y prácticas para hacer frente a los riesgos ya señalados. Esto debe hacerse a través de un compromiso con principios y políticas éticas propios. Además, deben cumplir los requisitos que establezcan los gobiernos.

¿Qué debe hacer un experto en Inteligencia Artificial en el campo de la Medicina?

El personal científico y de programación debe tener la experiencia necesaria para identificar y mitigar los riesgos presentes en el desarrollo de esta tecnología.

La OMS ofrece recomendaciones para la capacitación del personal dedicado al desarrollo, destacando la importancia de la inclusividad en el proceso de diseño. Además, recomienda considerar requisitos de licencias o certificaciones en áreas de IA de alto riesgo, como la salud.

Hablemos sobre datos

Si bien los recursos humanos y la potencia informática son esenciales, la columna vertebral del desarrollo de los LLM está en los datos. La calidad y el tipo de datos utilizados determinan si se cumple con los principios éticos fundamentales y los requisitos legales.

Los desarrolladores deben reconocer la importancia de la calidad de los datos. Un descuido en este rubro puede tener repercusiones significativas, especialmente en áreas críticas, como la atención médica.

Consentimiento informado y conjunto de datos

En campos como la salud, el cumplimiento de leyes sobre consentimiento informado puede llevar a los desarrolladores a depender de conjuntos de datos más pequeños. Aunque estos conjuntos pueden mejorar la calidad y la inclusividad de los datos, también presentan desafíos, como el aumento del riesgo de reidentificación.

A pesar de sus posibles inconvenientes, los conjuntos de datos más pequeños pueden alinearse con objetivos de sostenibilidad ambiental. Asimismo, pueden permitir una participación más amplia en el desarrollo de la IA.

Evaluaciones de impacto en la protección de datos

El Reglamento General de Protección de Datos de la Unión Europea exige a los desarrolladores realizar evaluaciones exhaustivas de impacto en la protección de datos.

La recolección de datos en países de ingresos bajos y medianos debe abordarse con precaución para evitar prácticas éticamente cuestionables relacionadas con colonialismo de datos.

El Reglamento General de Protección de Datos de la Unión Europea exige a los desarrolladores realizar evaluaciones exhaustivas de impacto en la protección de datos.

Mejorar la calidad de los datos

Para mejorar la calidad y cumplir con las leyes de protección de datos, los desarrolladores deben seguir reglas y buenas prácticas desde su recolección. Deben evitar fuentes de terceros, ya que sus datos pueden ser obsoletos o sesgados. La recolección cuidadosa de datos no solo garantiza el cumplimiento, sino mitiga repercusiones legales relacionadas con leyes y derechos de autor y protección de datos.

A medida que avanza el panorama de la IA, los desarrolladores deben priorizar la ética, el cumplimiento normativo y la calidad de los datos. Esto les permitirá construir modelos de fundación responsables y confiables.

En la próxima entrega nos adentraremos en las leyes, políticas e inversiones del sector público. También veremos las implicaciones éticas de los LLM de código abierto.

Agustín De Luca es abogado, administrador y músico. Reside en Ciudad de México y actualmente es director general de ICO: Inteligencia Creativa, agencia de marketing de contenidos que atiende a clientes internacionales como AstraZeneca.

Facebook Comments

Agustín De Luca

Author Agustín De Luca

More posts by Agustín De Luca