Durante años comentamos, con un punto de resignación y otro de ironía, que los pacientes llegaban a la consulta después de haber pasado por “Doctor Google”. Hoy esa frase ha quedado ya muy vieja y lo que está ocurriendo es algo bastante más profundo, y también bastante más delicado: la primera consulta, en muchísimos casos, ya no sucede en el centro de salud, ni en la consulta del especialista, ni siquiera en un buscador clásico, sino en una interfaz conversacional que responde con seguridad, sintetiza, ordena, prioriza y, sobre todo, da una única respuesta con apariencia de criterio. La literatura reciente ya habla de un cambio de paradigma en la búsqueda de información en salud por la irrupción de herramientas basadas en IA que ofrecen “una” respuesta, en lugar de un conjunto de fuentes para comparar.

No estamos, simplemente, ante una evolución tecnológica más, sino ante una alteración del lugar desde el que el paciente empieza a construir el sentido de lo que le ocurre. Ese matiz importa enormemente porque una cosa es buscar información; otra, muy distinta, es recibir una interpretación ya empaquetada. Un estudio publicado en Journal of Medical Internet Research en 2025 señala precisamente que la búsqueda de información sanitaria está cambiando con la llegada de los grandes modelos de lenguaje, los asistentes de voz y los sistemas que responden en formato sintético, desplazando hábitos tradicionales de comparación de fuentes y evaluación de credibilidad.

La promesa, por supuesto, resulta seductora. Sobre el papel, la IA podría acercar conocimiento médico de calidad a millones de personas, reducir barreras de acceso, orientar dudas iniciales y ayudar en el manejo de enfermedades crónicas. Un trabajo de Nature Medicine de 2026 recuerda que estos sistemas ya alcanzan puntuaciones casi perfectas en exámenes médicos y podrían, teóricamente, facilitar valoraciones preliminares o guías personalizadas. Pero ese mismo estudio introdujo un elemento de realidad que debería bastar para enfriar cualquier entusiasmo ingenuo: en una investigación controlada con 1.298 participantes, los modelos acertaban por sí solos al identificar condiciones en el 94,9% de los casos, pero las personas que los usaban no lograban mejores resultados que el grupo control; de hecho, identificaron condiciones relevantes en menos del 34,5% de los casos y la conducta a seguir en menos del 44,2%. Es decir, el sistema “sabe” más de lo que el usuario consigue convertir en una buena decisión ya que no existe un acompañamiento posterior o una compresión del “global” del paciente en sí.

Ese hallazgo debería hacernos pensar mucho más de lo que lo estamos haciendo, ya que, el problema no es únicamente la exactitud potencial del modelo, sino la fricción entre lo que el sistema responde y lo que el paciente entiende, recuerda, selecciona o decide hacer con ello.

“En salud, el valor no reside solo en generar información correcta, sino en producir comprensión útil, prudente y accionable y, ahí, la distancia entre rendimiento técnico y seguridad real puede ser enorme”.

Conviene desmontar una fantasía muy cómoda: la de que estos sistemas, por sonar convincentes, ya son suficientemente seguros para ocupar el espacio de una primera orientación sanitaria. No lo son. Un estudio physician-led publicado en npj Digital Medicine en 2026 analizó 888 respuestas de cuatro chatbots públicos a 222 preguntas médicas formuladas por pacientes y encontró tasas de respuestas problemáticas que iban del 21,6% al 43,2%; las respuestas directamente inseguras oscilaron entre el 5% y el 13%, con potencial de causar daño serio. Los autores son explícitos: millones de pacientes podrían estar recibiendo consejo médico inseguro de herramientas de uso abierto.

A esto se suma un riesgo menos visible para el gran público, pero decisivo desde el punto de vista de la seguridad: la fragilidad técnica de estos sistemas. Un estudio de JAMA Network Open de 2025 mostró que los ataques de prompt injection en diálogos médico-paciente simulados lograron alterar el comportamiento del modelo en el 94,4% de los ensayos y en el 91,7% de los escenarios de daño extremo, incluyendo recomendaciones clínicamente peligrosas. Traducido: no basta con que el modelo “parezca prudente”; hay que preguntarse también cuánto resiste cuando el entorno digital es hostil, manipulado o simplemente imperfecto.


"La cuestión no es si van a entrar en salud, porque ya han entrado; la cuestión es bajo qué reglas, con qué controles y con qué comprensión real de sus efectos sobre el comportamiento de los pacientes"



Por eso la Organización Mundial de la Salud ha insistido en que estos modelos, llamados por la propia OMS grandes modelos multimodales, tendrán una amplia aplicación en asistencia sanitaria, salud pública, investigación y desarrollo de fármacos, pero exigen marcos de gobernanza, supervisión y cautela proporcionales a su impacto.

“La cuestión no es si van a entrar en salud, porque ya han entrado; la cuestión es bajo qué reglas, con qué controles y con qué comprensión real de sus efectos sobre el comportamiento de los pacientes”.

Aquí aparece un elemento que, a mi juicio, está todavía infravalorado: el poder del primer encuadre. La medicina sabe desde hace tiempo que el modo en que se presenta la información condiciona el razonamiento posterior. JAMA Internal Medicine definía el anchoring bias como la tendencia a fijarse en una única pieza de información, a menudo inicial, sin ajustar suficientemente el juicio a la información posterior. Si eso afecta a profesionales clínicos entrenados, cuesta poco entender el efecto que puede tener en un paciente una primera respuesta formulada con autoridad lingüística, inmediatez y tono resolutivo.

Ese es, en realidad, el gran cambio cultural de este momento. No estamos solo ante una nueva fuente de información, sino ante un nuevo marco de decisión.

“El paciente no llega ya a la consulta únicamente con síntomas, sino con una hipótesis, una jerarquía de riesgos, una expectativa de tratamiento y, en ocasiones, una convicción emocional bastante consolidada. Y cuando esa primera convicción se instala, desplazarla no siempre es sencillo, sobre todo en sistemas sanitarios sometidos a presión asistencial, con tiempos limitados y con poco margen para rehacer desde cero el itinerario cognitivo del paciente”.

Por eso me parece un error abordar este fenómeno únicamente como un debate sobre innovación. También es un debate sobre poder: poder para ordenar qué fuentes se vuelven visibles, para decidir qué matices sobreviven a la síntesis automática, para hacer que ciertas patologías, ciertos enfoques terapéuticos, ciertos niveles de gravedad o ciertas recomendaciones preventivas aparezcan antes que otros en el momento más sensible del proceso: aquel en el que una persona todavía no sabe bien qué le pasa, pero ya está empezando a otorgarle significado. 

Desde esa perspectiva, la pregunta relevante para el sector sanitario, para las instituciones, para las sociedades científicas y también para las compañías que operan en salud no es si deben “estar en IA” como quien se suma a una moda. La pregunta correcta es otra: ¿quién está ocupando hoy el primer momento de orientación del paciente y con qué grado de rigor? Porque allí se está decidiendo ya una parte del recorrido asistencial, de la adherencia, del miedo, de la demora o de la búsqueda de ayuda. Eso obliga a replantear también qué entendemos por comunicación sanitaria. Durante demasiado tiempo la hemos reducido, en algunos ámbitos, a visibilidad, campañas o reputación. Pero en el nuevo ecosistema digital, la comunicación rigurosa en salud se parece cada vez más a una infraestructura clínica blanda: ordena el contexto, reduce ruido, previene interpretaciones erróneas y crea condiciones mejores para que la decisión posterior, ya en interacción con profesionales, sea más segura.


"La respuesta responsable, a mi juicio, no pasa por demonizar la IA ni por celebrar acríticamente su despliegue, sino por algo bastante menos vistoso y mucho más serio"



No es un adorno del sistema, empieza a ser una parte de su arquitectura preventiva. Esta idea encaja con la evidencia de que la búsqueda online de información en salud lleva años consolidada y de que internet forma ya parte constante de la vida cotidiana para una gran mayoría de adultos. En Estados Unidos, por ejemplo, Pew documentó que el 95% de los adultos usaba internet en 2023 y que el 41% estaba online “casi constantemente”; el giro actual consiste en que esa presencia digital, antes basada en búsqueda y comparación, se está desplazando hacia respuestas generadas y conversacionales.

La respuesta responsable, a mi juicio, no pasa por demonizar la IA ni por celebrar acríticamente su despliegue, sino por algo bastante menos vistoso y mucho más serio: evaluar con humanos reales, auditar riesgos, reforzar alfabetización en salud y en IA, exigir transparencia sobre fuentes y límites, y producir contenido sanitario de alta calidad que pueda competir, en claridad y credibilidad, dentro de este nuevo ecosistema de respuestas. Incluso los trabajos más favorables al potencial público de estas herramientas subrayan que todavía hace falta mucha más evidencia para demostrar su seguridad y utilidad en contextos reales. La cuestión de fondo no es tecnológica sino sanitaria, y también democrática.

“Si la primera interpretación de un síntoma, de un riesgo o de una enfermedad empieza a producirse fuera del espacio clínico tradicional, entonces el debate ya no puede limitarse a qué herramienta usamos, sino a qué verdad circula primero, quién la formula y qué intereses, sesgos o fallos pueden estar modelándola”. Cuando la primera consulta ya no ocurre en la consulta, lo que está en juego no es solo la innovación: es la calidad del criterio con el que una sociedad empieza a entender su propia salud.