
Introducción:
La inteligencia artificial (IA) está revolucionando la atención médica, pero recientes investigaciones han desvelado un patrón alarmante: los sistemas de IA presentan sesgos significativos contra mujeres y grupos étnicos minoritarios, lo que podría agravar las desigualdades históricas en el acceso y la calidad de la salud.
Evidencia de Discriminación Algorítmica
Un análisis realizado por el Jameel Clinic del MIT encontró que modelos populares de IA como GPT-4 de OpenAI, Llama 3 de Meta y herramientas específicas como Palmyra-Med presentaron patrones de discriminación recurrentes. Por ejemplo, estos sistemas diagnosticaban más a menudo a hombres que a mujeres para enfermedades comunes como COVID-19 y cáncer, y solicitaban menos pruebas diagnósticas (como resonancias o ecografías) para pacientes afrodescendientes en comparación con pacientes blancos.
Un estudio de la London School of Economics, que evaluó 29.616 pares de resúmenes generados por IA, evidenció que el modelo Gemma de Google minimizaba sistemáticamente los problemas físicos y mentales de las mujeres en comparación con los hombres. Además, una investigación publicada en Nature Digital Medicine detectó que los principales sistemas de IA recomendaban decisiones psiquiátricas más restrictivas para pacientes afroamericanos con depresión y sugerían reducción de consumo de alcohol más frecuentemente a este grupo.
La Veracidad de las Promesas de Precisión de la IA
A pesar de que empresas como Microsoft afirmaron en julio de 2025 que sus herramientas de IA podían diagnosticar casos médicos complejos con una precisión cuatro veces superior a la de los médicos, expertos en salud han cuestionado si estos sistemas consideran realmente la equidad y la diversidad. Por ejemplo, la profesora asociada Marzyeh Ghassemi (MIT) advirtió que “algunos pacientes podrían recibir recomendaciones mucho menos empáticas basadas simplemente en cómo la IA percibe su raza”.
Responsabilidad Reguladora ante los Riesgos de Discriminación
Ante estas situaciones, la Oficina de Derechos Civiles del Departamento de Salud y Servicios Humanos de EE.UU. emitió en mayo de 2024 una normativa que responsabiliza legalmente a las entidades sanitarias por los riesgos discriminatorios de la IA. La regulación exige que los hospitales tomen “medidas razonables” para identificar si sus herramientas utilizan características protegidas y que mitiguen cualquier riesgo.
Seis estados en EE.UU. ahora requieren que un profesional de la salud revise las decisiones de IA relacionadas con reclamaciones de seguros antes de emitir una negación, y otros muchos estados consideran leyes similares.
Tanto OpenAI como Google han reconocido el reto de los sesgos y declaran estar trabajando en mejoras. Sin embargo, la raíz del problema podría estar en los patrones históricos de discriminación incrustados en los datos con los que estos sistemas se entrenan.
Conclusión
La integración creciente de la IA en la medicina exige una vigilancia constante y reformas profundas en la recolección y manejo de datos. Sin medidas proactivas, la IA corre el riesgo de perpetuar, e incluso multiplicar, las desigualdades sanitarias históricamente presentes en la atención médica.