Nayib Bukele, en una imagen de archivo.
Mientras el presidente del
El Salvador, Nayib Bukele, confía su sistema sanitario a una inteligencia artificial hecha a medida, un estudio científico revela que los algoritmos genéricos fallan de forma sistemática ante consultas sobre salud. El estudio independiente,
publicado en la revista BMJ Open, concluye que el 49,6 por ciento de las respuestas generadas por los chatbots más populares contienen
información problemática o peligrosa para el paciente. La investigación constata las carencias actuales de estos modelos de lenguaje genéricos. Sin embargo, la iniciativa lanzada en El Salvador va un paso más alla implantando un sistema específico de Inteligencia Artificial de Google:
Dr. SV. Esta app tiene como objetivo dar orientación inicial, programar consultas virtuales o presenciales con médicos en caso de que determine que sea necesario y
dar seguimiento diario al tratamiento de pacientes, entre otras tareas.
El espejismo tecnológico
La investigación evalúa el rendimiento de
cinco grandes modelos de lenguaje: Gemini, DeepSeek, Meta AI, ChatGPT y Grok. Los autores sometieron a las
inteligencias artificiales a 250 consultas enmarcadas en cinco categorías médicas propensas a la desinformación, abarcando cáncer, vacunas, células madre, nutrición y rendimiento deportivo. Los resultados detallan que
casi la mitad de los textos arrojados resultaron inadecuados. En concreto, el 30 por ciento de las respuestas se clasificó como algo problemáticas y el 19,6 por ciento como altamente problemáticas. Grok lideró esta estadística negativa, al generar de manera significativa más respuestas altamente problemáticas de lo que se esperaría bajo una distribución aleatoria.
El plan de Nayib Bukele de
utilizar un algoritmo para determinar si un paciente necesita atención presencial o monitorear enfermedades crónicas choca con la realidad técnica descrita en el informe. Los investigadores argumentan que el desempeño de estos sistemas es "
especialmente deficiente en áreas como la nutrición y los tratamientos con células madre".
Certezas peligrosas
El mayor riesgo detectado no reside únicamente en el error, sino en la
convicción con la que la máquina lo transmite. Los modelos expresan sus textos de manera constante con confianza y certeza. De hecho, ante las 250 preguntas planteadas, el sistema apenas registró dos negativas a contestar (un 0,8 por ciento), ambas emitidas por Meta AI. La auditoría matiza que
las máquinas priorizan ofrecer una respuesta antes que admitir su incapacidad, incluso cuando se les presiona para dar consejos contraindicados.
A esta falsa autoridad se suma una escasa fiabilidad documental. La calidad de las referencias aportadas por los chatbots es deficiente, con una puntuación media de integridad de apenas el 40 por ciento.
Las alucinaciones de los modelos y las citas fabricadas impidieron que cualquier plataforma lograra producir una lista de referencias totalmente precisa.
Incomprensión clínica
Más allá de la precisión científica, el estudio advierte sobre una barrera idiomática que agravaría la vulnerabilidad ciudadana al ceder diagnósticos a corporaciones tecnológicas. Todas las puntuaciones de legibilidad de las respuestas se calificaron como "Difíciles" en la escala Flesch. Esto equivale al nivel de lectura de un estudiante universitario de cursos superiores. Un paciente sin formación académica que acceda a un
triaje automatizado difícilmente podrá interpretar los matices de su diagnóstico.
Los investigadores recuerdan que estos modelos no razonan ni sopesan evidencias, sino que
infieren patrones estadísticos a partir de sus datos de entrenamiento y predicen secuencias probables de palabras. El despliegue continuo de estos sistemas sin educación pública y supervisión corre el riesgo de amplificar la desinformación. Los chatbots auditados tuvieron un desempeño deficiente al responder preguntas en campos médicos y de salud propensos a la desinformación, zanjando así que la medicina actual todavía requiere un
criterio clínico insustituible.
Las informaciones publicadas en Redacción Médica contienen afirmaciones, datos y declaraciones procedentes de instituciones oficiales y profesionales sanitarios. No obstante, ante cualquier duda relacionada con su salud, consulte con su especialista sanitario correspondiente.