La inteligencia artificial se cuela en la consulta del médico.
La inteligencia artificial (
IA) está
transformando la relación médico-paciente. Si bien el acceso a información nunca había sido tan fácil, la creciente llegada a consulta de personas que han consultado a herramientas como ChatGPT presenta
un desafío para los profesionales sanitarios, quienes se enfrentan a la necesidad de conjugar los datos proporcionados por la IA con la realidad clínica.
El doctor
Miguel Marcos, catedrático y médico internista en el Hospital Universitario de Salamanca, quien recientemente ha impulsado la creación de
una app para que los estudiantes de Medicina practiquen con IA sin riesgo para los pacientes, comenta a
Redacción Médica que "el hecho de que
el paciente esté informado siempre es algo positivo". No obstante, subraya la dificultad de aplicar esa información general a un caso particular. Aunque reconoce que la IA puede acertar e incluso "ofrecer datos que en una entrevista clínica se nos puede escapar", insiste en que
el diagnóstico correcto exige la experiencia humana.
La IA aún no supone un impacto significativo
Marcos explica que la información que un paciente le ofrece a un modelo de lenguaje puede tener "
muchos datos que falten en ese en ese relato", lo que impide a la IA ofrecer un diagnóstico correcto o completo, por lo que, para él,
no hay todavía un impacto significativo a través de los pacientes. Y es que, aunque el catedrático admite que ChatGPT y los nuevos modelos de IA son mejores que Google para la consulta de este tipo de dudas, sigue siendo
difícil que la interpretación sea tan precisa. Además, afirma que le gusta que los pacientes le comenten sus dudas, pero que siente que muchas veces tienen reparo en comentar a su médico que han preguntado a ChatGPT antes de la consulta:
“Piensan que nos puede parecer mal”, alega.
El cambio, sin embargo, parece inminente. El especialista vaticina que la IA tendrá un
impacto claro en el futuro, pero quizá no tanto a través del paciente sino mediante
"chatbots que puedan hacer una primera consulta y luego ser capaces de canalizar a ese paciente de forma más eficiente al sistema sanitario". Marcos considera un "hecho incontestable" que la IA se seguirá aplicando por médicos y pacientes, y el reto será
"cómo integrarla de la mejor manera posible en nuestro trabajo", concluye.
Cambio de política de uso de OpenAI
Recientemente la empresa OpenAI, matriz de ChatGPT, ha hecho
cambios en sus políticas de uso que afectan a las consultas en el ámbito de sanidad, entre otras. Con el fin de "proteger a las personas", desde la empresa dicen que "no está permitido" usar sus servicios para la "prestación de asesoramiento personalizado que requiera habilitación profesional, como asesoramiento jurídico o médico,
sin la intervención adecuada de un profesional acreditado", publican en su web. En la práctica, los usuarios pueden seguir preguntando sobre temas médicos, pero ChatGPT es contundente, indicando que no es un médico, que es necesario consultar con uno para obtener información adecuada, o da orientaciones, pero no directrices, sobre estos asuntos.
Las informaciones publicadas en Redacción Médica contienen afirmaciones, datos y declaraciones procedentes de instituciones oficiales y profesionales sanitarios. No obstante, ante cualquier duda relacionada con su salud, consulte con su especialista sanitario correspondiente.