José Antonio Trujillo, vicepresidente del Colegio de Médicos de Málaga y experto en IA.
En un contexto marcado por el
uso creciente de
Inteligencia Artificial (IA), algunos expertos advierten que en el ámbito sanitario y académico esta herramienta puede
reproducir e incluso amplificar desigualdades de género si se alimenta con datos que ya reflejan esas brechas. Así lo afirma en
Redacción Médica José Antonio Trujillo, vicepresidente del Colegio de Médicos de Málaga y experto en IA, que asegura que estas inequidades también se pueden trasladar al ámbito de la salud.
Por ejemplo,
en las universidades españolas, en "un ámbito tan feminizado como las Ciencias de la Salud" persisten
"brechas claras" de género, ya que las profesoras cobran de media un 18 por ciento menos que los hombres. Una diferencia que alcanza el 27,4 por ciento en el caso de los
complementos salariales y donde las desigualdades "se concentran en
acceso a liderazgo y promoción", matiza Trujillo.
El peligro de entrenar a la IA con datos sesgados
Y es que, estas desigualdades
pueden trasladarse al desarrollo tecnológico si los algoritmos se entrenan con datos históricos que reflejan esas mismas dinámicas como "salarios,
productividad medida con métricas que penalizan cuidados, trayectorias ‘lineales’ masculinas, patrones de contratación". Si los modelos de IA que se están desarrollando en la actualidad los utilizan, "aprenderán de forma sesgada y replicarán respuestas en sistemas de selección, evaluación,
acreditación o asignación de recursos".
Pero este impacto no se limita al ámbito académico, sino
también a la salud, ya que el sesgo de género también
afecta a la atención sanitaria al no ser "solo un problema ético, sino de calidad asistencial". "Un algoritmo que v
e menos a las mujeres por infrarrepresentación, variables proxy o falta de perspectiva puede priorizar peor,
infradiagnosticar o distribuir recursos con menos equidad", explica Trujillo.
Por ello, insiste en que es necesario asumir que la tecnología no está
libre de sesgos:
"Hay que reconocer que la IA no es neutral", afirma, añadiendo que "sin gobernanza y estándares de equidad, puede agravar
inequidades ya existentes".
Un problema ya documentado
La
literatura científica ya ha comenzado a documentar este problema. En un estudio publicado en
Journal of Biomedical Informatics, los investigadores analizaron modelos de predicción cardiovascular basados tanto en ecuaciones clásicas como en
algoritmos de machine learning a partir de datos de historia clínica electrónica. Lo que encontraron, es que "tanto las ecuaciones clásicas como los modelos de IA estaban sesgados contra las mujeres, con menor tasa de verdaderos positivos y menor proporción de predicción positiva en el grupo femenino", revela.
Además, el trabajo también apunta a
posibles soluciones técnicas como "e
lre-muestreo", que pueden "reducir parte de ese sesgo, con posibles peajes en rendimiento si no se calibra bien".
Usar mejor la Inteligencia Artificial
Ante este escenario, Trujillo subraya que
la solución no pasa por
limitar el uso de la Inteligencia Artificial, sino por "usarla mejor". Entre las medidas necesarias para ello, el experto destaca la
"diversidad en los equipos" de desarrollo, el uso de "datos desagregados or sexo/género,
auditorías de sesgo antes y después del despliegue, métricas de justicia, transparencia mediante la documentación del modelo y del dataset" y "
mecanismos de supervisión y reclamación". El objetivo, concluye, es claro: "Solo así la IA será palanca de corrección -y
no multiplicador- de desigualdades".
Las informaciones publicadas en Redacción Médica contienen afirmaciones, datos y declaraciones procedentes de instituciones oficiales y profesionales sanitarios. No obstante, ante cualquier duda relacionada con su salud, consulte con su especialista sanitario correspondiente.