Un experto en herramientas predictivas demanda formación tanto en el grado de Medicina como en el MIR

IA en Medicina: un recurso para la reflexión ética y no para diagnóstico


SE LEE EN 5 minutos
¿Puede una Inteligencia Artificial anticipar el futuro de nuestra salud? Ejemplos como el algoritmo Delphi-2M, entrenado con datos de más de 400.000 personas, prometen predecir el riesgo de desarrollar más de mil enfermedades. Sin embargo, más allá de su precisión, cuestionada por sus propios creadores debido a los sesgos que presenta, esta herramienta se perfila más como un recurso para la reflexión clínica y ética. Así lo ha expresado en Redacción Médica José Antonio Trujillo, médico experto en IA aplicada a la salud. 

"Es un experimento fascinante y un claro ejemplo de lo que se conoce como IA Generativa aplicada al juicio clínico, entrenada con las respuestas de una multitud de personas. Su precisión, por tanto, es un reflejo de la precisión y los sesgos colectivos de la sociedad", señala Trujillo, que reconoce que no cree "en su precisión absoluta" al ser una herramienta "inherentemente inexacta porque aprende de la subjetividad humana, que a menudo es inconsistente o está influenciada por prejuicios culturales".

Barreras técnicas, humanas y regulatorias


En cambio, el experto afirma que este tipo de modelos predictivos podría servir de ayuda en Medicina, pero no "como un sistema de diagnóstico, sino como una herramienta para la reflexión ética y clínica". "Por ejemplo, un médico podría usarla para plantear un caso complejo y ver qué factores podrían estar influyendo inconscientemente en su juicio según los patrones que la IA ha aprendido", indica Trujillo. De esta forma, "serviría para identificar puntos ciegos y generar discusión. Es un recordatorio crucial de que la IA no es infalible y de que nuestra tarea no es crear oráculos, sino herramientas que nos ayuden a comprendernos y mejorarnos a nosotros mismos. Su valor está en la advertencia que contiene", explica.

Precisamente, entre los riesgos que conlleva aplicar la IA, Trujillo, vicepresidente del Colegio de Médicos de Málaga, señala que puede darse un "exceso de confianza" que lleve al médico a delegar "críticamente en una herramienta que puede fallar". También la "amplificación de los sesgos existentes" en los datos utilizados para entrenarla, lo que podría desencadenar en "diagnósticos menos precisos para minorías étnicas o de género", y la "fragmentación de la relación médico-paciente".

Por esta razón, el experto enumera cuáles son las barreras técnicas, humanas y regulatorias que impiden la integración de la IA en Medicina. La primera de ellas es la barrera "de la evidencia clínica", referente a la "falta de estudios prospectivos y aleatorizados que demuestren su impacto real en outcomes de salud". La segunda, la "interoperabilidad", ya que los sistemas de IA "no se comunican bien con los historiales electrónicos (HCE), que son muy heterogéneos". Después, le sigue una complicada "regulación" debido a que los procesos de la Agencia del Medicamento Europea (EMA) y la Agencia de Medicamentos y Alimentos de Estados Unidos, (FDA) son aún lentos para una tecnología que evoluciona tan rápido".

A esto hay que sumar otra barrera "cultural y formativa", por la que aún existe un escepticismo natural y un déficit formativo enorme entre los profesionales sanitarios acerca de aplicar la IA, así como hay que tener en cuenta otros "aspectos económicos y de implementación" y preguntarse "quién paga por estas herramientas o cómo se implementan sin ralentizar el trabajo diario".

Por otro lado, asegura que, para usar la IA de manera segura en Medicina, los profesionales sanitarios deben adquirir nuevas habilidades. "No necesitamos que todos los médicos se conviertan en data scientists, pero sí deben desarrollar una alfabetización en IA", matiza. "Esto incluye el pensamiento crítico digital, que consiste en "saber cuestionar como se entrenó un algoritmo, qué datos usó y cuáles son sus limitaciones potenciales", la interpretación de resultados, es decir, "entender conceptos como sensibilidad, especificidad, valor predictivo y sesgo en el contexto de un algoritmo" y la ética aplicada, "comprender las implicaciones de privacidad, consentimiento y equidad". "Esta formación debe integrarse en el grado, el MIR y la formación continuada", concluye.

Formación y combatir los sesgos 


Para abordar esos sesgos en los algoritmos entrenados con datos, habría que aplicar, según Trujillo, una "estrategia múltiple" basada en 4 fases. Lo primero es la concienciación sobre que "todos los datos tienen sesgos" y "crear consorcios internacionales para recopilar datasets diversos y representativos de diferentes etnias, géneros y entornos geoeconómicos". Luego, habría que aplicar "técnicas de debiasing", es decir, "emplear algoritmos específicos durante el entrenamiento para identificar y mitigar sesgos". Por último, llevar a cabo una "auditoría continua". "Los modelos deben ser auditados de forma regular y prospectiva en la práctica real, no solo validados una vez con datos históricos. La transparencia en el reporting de los sesgos potenciales de un modelo, como han hecho los creadores de Delphi-2M, es fundamental y muy honesta", puntualiza.
Las informaciones publicadas en Redacción Médica contienen afirmaciones, datos y declaraciones procedentes de instituciones oficiales y profesionales sanitarios. No obstante, ante cualquier duda relacionada con su salud, consulte con su especialista sanitario correspondiente.