Los facultativos temen que se desdubuje la frontera entre negocio y salud con esta nueva herramienta segmentada

José Antonio Trujillo, experto en IA, analiza en Redacción Médica los riesgos clínicos de esta nueva herramienta y plantea condiciones para un uso seguro
José Antonio Trujillo, vicepresidente del Colegio de Médicos de Málaga y experto en IA.


SE LEE EN 6 minutos
El anuncio de OpenAI sobre el lanzamiento de ChatGPT Salud 2026 ha despertado un notable interés público, pero también cierta inquietud entre los expertos de esta tecnología en el ámbito sanitario. Así, José Antonio Trujillo, vicepresidente del Colegio de Médicos de Málaga y experto en IA, analiza en Redacción Médica el alcance y los riesgos de esta nueva herramienta que promete transformar la relación de los ciudadanos con su información médica.

Según explica, ChatGPT Salud se presenta como "un copiloto sanitario: un espacio dentro de ChatGPT en el que el usuario puede conectar datos de bienestar - como por ejemplo, Apple Health o MyFitnessPal- y, en determinados casos, también sus registros médicos, para entender analíticas, preparar una cita o seguir patrones de hábitos". Bajo este enfoque de empoderamiento ciudadano, el experto advierte que "se esconde una estrategia empresarial audaz que nos obliga a analizar los fundamentos éticos y legales de esta nueva frontera digital".

Riesgos: el "guion" de la IA y el sesgo de autoridad


Además, subraya que el desarrollo de la Inteligencia Artificial avanzada no depende únicamente del prestigio técnico, sino de su adopción masiva. "Los modelos a gran escala cuestan mucho de entrenar y, sobre todo, de servir a millones de personas. Por eso la salud es un territorio tentador: es universal, recurrente y emocional", afirma. OpenAI sostiene que "cada semana, más de 230 millones de personas plantean preguntas de salud y bienestar en ChatGPT", un dato que, según el experto, convierte en lógica  la decisión de transformar ese uso espontáneo en un producto especializado, aunque no está exenta de consecuencias.

El problema, aclara, no está en "que el paciente quiera comprender su informe o llegar más preparado". "Eso puede mejorar la comunicación clínica", señala. Sin embargo, advierte de un cambio profundo en la dinámica asistencial: "El riesgo está en el desplazamiento del centro de gravedad: cuando la narrativa del paciente se cocina primero en una interfaz que ordena síntomas, sugiere hipótesis y propone preguntas ‘inteligentes’, la relación médico-paciente cambia".

En ese escenario, el profesional sanitario, según Trujillo, "deja de explorar un relato para negociar un guion ya consolidado que trae el paciente". Por eso, añade una advertencia clave: "En Medicina, un guion convincente puede ser tan peligroso como un error serio si genera falsa tranquilidad, sobrediagnóstico o retrasos en acudir a consulta".

Otro elemento crítico es el sesgo de autoridad. "Tendemos a conceder credibilidad extra a lo que suena experto, coherente y ‘científico’", explica, recordando que en contextos de salud "la ansiedad reduce el contraste: quien tiene miedo compra certezas". En este sentido, alerta de que "un modelo generativo puede equivocarse con prosa impecable y esa mezcla -error más elegancia- es especialmente tóxica cuando se transforma en 'consejo'".

Para el experto, las advertencias legales no son suficientes y no basta con avisar de que la IA "no sustituye a médico", sostiene. "Si la herramienta interpreta resultados, delimita ‘siguientes pasos’ o prioriza riesgos, ya está influyendo en conductas, incluso cuando se presenta como mera orientación".

Negocio, datos y límites regulatorios


La dimensión económica añade otra capa de preocupación. Trujillo  recuerda que "el sector tecnológico debate modelos de monetización más allá de la suscripción y OpenAI ha impulsado experiencias de comercio dentro de ChatGPT". En este contexto, plantea una pregunta incómoda: "¿Qué ocurre si la lógica de recomendación se mezcla con incentivos económicos en un espacio de salud?". A su juicio, "no hace falta imaginar un banner; bastaría con que determinadas opciones -una prueba, una clínica, un seguro, un fármaco, un suplemento- aparezcan como 'recomendadas' para que la frontera entre consejo y negocio se vuelva peligrosa".

El experto también destaca un detalle revelador del lanzamiento: "El acceso inicial a ChatGPT Health se limita, de entrada, a usuarios fuera de la Unión Europea, Suiza y Reino Unido". Para Trujillo, esto "no es casualidad", ya que "Europa tiene el Reglamento General de Protección de Datos (RGPD) y una Ley de Inteligencia Artificial de la UE (AI Act) que ya ha activado obligaciones para los grandes modelos", además de una sensibilidad especial en torno al dato sanitario.

OpenAI asegura que "ChatGPT Salud opera como un espacio separado, con protecciones reforzadas, y que esas conversaciones no se usan para entrenar sus modelos fundacionales". También mantiene políticas por las que "el chat se elimina de la vista de forma inmediata y la supresión en sistemas puede completarse en un plazo máximo de 30 días". No obstante, el experto insiste: "Son medidas relevantes, pero no sustituyen lo esencial: gobernanza verificable".

Entre las preguntas que siguen abiertas, Trujillo enumera algunas: "¿Qué se guarda exactamente? ¿Qué terceros intervienen cuando se conectan registros médicos? ¿Con qué granularidad puede el ciudadano ver, revocar y auditar lo que comparte?". Y concluye: "Europa ha aprendido, por experiencia, que 'cumplimos' no siempre equivale a 'protegemos', y en salud la ambigüedad se paga cara".

Condiciones para un despliegue seguro


Desde una perspectiva ética, recuerda que "la Medicina no es solo técnica, es una práctica informada por la ética". El consentimiento informado, afirma, "exige comprensión", y mientras "un médico puede errar, pero debe poder razonar, justificar y corregir", un modelo generativo "puede acertar sin comprender y fallar con una seguridad aparente que inhibe la duda del usuario".

El experto también alerta sobre las diferencias entre sistemas sanitarios: "protocolos, accesos a fármacos y circuitos asistenciales varían entre países; una recomendación optimizada para un contexto puede desajustarse en otro". En caso de daño, advierte, "aparecerá el vacío clásico: ¿quién responde, el profesional, el hospital o el proveedor tecnológico?".

Trujillo concluye que el debate no pasa por rechazar la innovación, sino por fijar límites claros: "No se trata de demonizar el desarrollo de la IA en salud. Se trata de impedir que la salud sea el laboratorio de un nuevo capitalismo de la persuasión". Para ello, defiende "condiciones irrenunciables: separación real de datos, auditorías independientes, evaluación de sesgos, supervisión humana operativa y prohibición -o, como mínimo, etiquetado inequívoco- de cualquier contenido patrocinado o con conflicto de interés".
Las informaciones publicadas en Redacción Médica contienen afirmaciones, datos y declaraciones procedentes de instituciones oficiales y profesionales sanitarios. No obstante, ante cualquier duda relacionada con su salud, consulte con su especialista sanitario correspondiente.