Sin gobernanza y estándares de equidad, esta herramienta puede "agravar inequidades ya existentes"

 El riesgo de la IA de amplificar la brecha de género en salud
José Antonio Trujillo, vicepresidente del Colegio de Médicos de Málaga y experto en IA.


SE LEE EN 3 minutos
En un contexto marcado por el uso creciente de Inteligencia Artificial (IA), algunos expertos advierten que en el ámbito sanitario y académico esta herramienta puede reproducir e incluso amplificar desigualdades de género si se alimenta con datos que ya reflejan esas brechas. Así lo afirma en Redacción Médica José Antonio Trujillo, vicepresidente del Colegio de Médicos de Málaga y experto en IA, que asegura que estas inequidades también se pueden trasladar al ámbito de la salud.

Por ejemplo, en las universidades españolas, en "un ámbito tan feminizado como las Ciencias de la Salud" persisten "brechas claras" de género, ya que las profesoras cobran de media un 18 por ciento menos que los hombres. Una diferencia que alcanza el 27,4 por ciento en el caso de los complementos salariales y donde las desigualdades "se concentran en acceso a liderazgo y promoción", matiza Trujillo.

El peligro de entrenar a la IA con datos sesgados


Y es que, estas desigualdades pueden trasladarse al desarrollo tecnológico si los algoritmos se entrenan con datos históricos que reflejan esas mismas dinámicas como "salarios, productividad medida con métricas que penalizan cuidados, trayectorias ‘lineales’ masculinas, patrones de contratación". Si los modelos de IA que se están desarrollando en la actualidad los utilizan, "aprenderán de forma sesgada y replicarán respuestas en sistemas de selección, evaluación, acreditación o asignación de recursos".

Pero este impacto no se limita al ámbito académico, sino también a la salud, ya que el sesgo de género también afecta a la atención sanitaria al no ser "solo un problema ético, sino de calidad asistencial". "Un algoritmo que ve menos a las mujeres por infrarrepresentación, variables proxy o falta de perspectiva puede priorizar peor, infradiagnosticar o distribuir recursos con menos equidad", explica Trujillo.

Por ello, insiste en que es necesario asumir que la tecnología no está libre de sesgos: "Hay que reconocer que la IA no es neutral", afirma, añadiendo que "sin gobernanza y estándares de equidad, puede agravar inequidades ya existentes".

Un problema ya documentado


La literatura científica ya ha comenzado a documentar este problema. En un estudio publicado en Journal of Biomedical Informatics, los investigadores analizaron modelos de predicción cardiovascular basados tanto en ecuaciones clásicas como en algoritmos de machine learning a partir de datos de historia clínica electrónica. Lo que encontraron, es que "tanto las ecuaciones clásicas como los modelos de IA estaban sesgados contra las mujeres, con menor tasa de verdaderos positivos y menor proporción de predicción positiva en el grupo femenino", revela.

Además, el trabajo también apunta a posibles soluciones técnicas como "e lre-muestreo", que pueden "reducir parte de ese sesgo, con posibles peajes en rendimiento si no se calibra bien".

Usar mejor la Inteligencia Artificial


Ante este escenario, Trujillo subraya que la solución no pasa por limitar el uso de la Inteligencia Artificial, sino por "usarla mejor". Entre las medidas necesarias para ello, el experto destaca la "diversidad en los equipos" de desarrollo, el uso de "datos desagregados or sexo/género, auditorías de sesgo antes y después del despliegue, métricas de justicia, transparencia mediante la documentación del modelo y del dataset" y "mecanismos de supervisión y reclamación". El objetivo, concluye, es claro: "Solo así la IA será palanca de corrección -y no multiplicador- de desigualdades".
Las informaciones publicadas en Redacción Médica contienen afirmaciones, datos y declaraciones procedentes de instituciones oficiales y profesionales sanitarios. No obstante, ante cualquier duda relacionada con su salud, consulte con su especialista sanitario correspondiente.