Un estudio publicado en NEJM AI analiza cómo personas no expertas (es decir, sin conocimientos sanitarios profesionales) perciben y evalúan respuestas médicas generadas por inteligencia artificial frente a respuestas redactadas por médicos en plataformas de atención sanitaria online.
El trabajo concluye que los participantes no solo son incapaces de distinguir de forma eficaz entre ambos tipos de respuestas, sino que además muestran una mayor confianza en las generadas por IA, incluso cuando estas contienen errores.
La investigación se basó en un experimento con 300 participantes, que evaluaron respuestas médicas escritas por médicos o generadas por un modelo de lenguaje. Las respuestas de IA habían sido previamente clasificadas por médicos como de alta o baja precisión. Los participantes valoraron cada respuesta en términos de validez, fiabilidad y grado de completitud o satisfacción.
Los resultados muestran que las respuestas de IA con alta precisión fueron calificadas como significativamente más válidas, fiables y completas que las respuestas redactadas por médicos. De forma llamativa, las respuestas de IA con baja precisión obtuvieron valoraciones muy similares a las de los médicos, a pesar de contener información inexacta o inapropiada.
La cara peligrosa de la IA en salud
El estudio también señala que los participantes manifestaron una elevada disposición a seguir consejos médicos potencialmente perjudiciales cuando procedían de respuestas de IA con baja precisión, así como a buscar atención médica innecesaria como consecuencia de dichas respuestas. Esta reacción fue comparable, e incluso en algunos casos superior, a la observada ante respuestas firmadas por médicos.
El estudio observa un sesgo a favor de la IA tanto en los participantes no expertos como en las evaluaciones realizadas por médicos, al percibir sus respuestas como más exhaustivas y precisas que las humanas. No obstante, los participantes continuaron valorando la participación de un médico en la entrega del consejo médico, especialmente cuando se les informaba de que la respuesta procedía de un profesional sanitario.
En sus conclusiones, los autores advierten de que la confianza excesiva en respuestas médicas generadas por IA que son inexactas o inapropiadas puede conducir a diagnósticos erróneos y a consecuencias perjudiciales para las personas que buscan ayuda sanitaria. Por ello, defienden que estos sistemas deben implementarse siempre en colaboración con profesionales médicos, con el objetivo de evitar la desinformación y aprovechar los beneficios de esta tecnología emergente.
REGÍSTRATE GRATIS
PARA SEGUIR LEYENDO
¿Ya eres premium? Inicia sesión
Aviso importante
El usuario desde el que está intentando acceder a este contenido no está registrado como profesional autorizado para acceder a esta información. Esta noticia informa sobre novedades farmacológicas y, por ley, está reservada a profesionales de la salud habilitados para la prescripción o dispensación de medicamentos.
Volver a la portada de Redacción Médica
Las informaciones publicadas en Redacción Médica contienen afirmaciones, datos y declaraciones procedentes de instituciones oficiales y profesionales sanitarios. No obstante, ante cualquier duda relacionada con su salud, consulte con su especialista sanitario correspondiente.