La industria europea define un marco común para impulsar la innovación sin comprometer la seguridad del paciente

El sector fija cinco prioridades para el uso de IA en la regulación pharma
Nathalie Moll, directora general de Efpia.


SE LEE EN 4 minutos
La integración de la Inteligencia Artificial (IA) en el desarrollo de medicamentos avanza con rapidez y empieza a ocupar un papel estructural en la investigación clínica, la fabricación y la farmacovigilancia.

Conscientes del impacto potencial de estas tecnologías, la Federación Europea de Asociaciones de la Industria Farmacéutica (Efpia) ha publicado un informe donde analiza casos de uso reales y recoge las prácticas que hoy aplican las compañías para regular la IA de forma segura.

A partir de esas experiencias, la industria identifica cinco prioridades regulatorias que considera esenciales para facilitar un despliegue responsable y sostenible de la IA en el sector sanitario.


Garantizar la calidad y estandarización de los datos


El informe subraya que la calidad del dato es el pilar fundamental para el desarrollo de modelos de IA robustos, fiables y utilizables en entornos regulados. Las empresas coinciden en que la estandarización (por ejemplo, mediante el uso del Study Data Tabulation Model (SDTM)) es clave para asegurar trazabilidad, comparabilidad y facilitar la validación de modelos.

Esta armonización permite que la IA pueda integrarse en procesos ya regulados, como la evaluación de endpoints digitales o la generación de evidencia basada en mundo real. Efpia considera prioritario que los reguladores impulsen marcos que favorezcan la interoperabilidad y garanticen una documentación clara y consistente a lo largo del ciclo de vida del medicamento.


Reforzar la capacitación y la gestión del cambio


Otro elemento destacado es la necesidad de acelerar la alfabetización en IA dentro de las organizaciones farmacéuticas. Muchos equipos clínicos, de calidad o regulatorios no están familiarizados con el aprendizaje automático, lo que puede generar resistencias o interpretaciones erróneas.

Las empresas que participaron en los estudios de caso coinciden en que las iniciativas de formación, los programas de acompañamiento y la comunicación interna estructurada "fueron esenciales para generar confianza y comprensión". Por ello, el sector propone que los marcos regulatorios reconozcan y fomenten la capacitación como parte integral de la gobernanza de la IA.


Incorporar la gobernanza de forma multidisciplinar


Las compañías que han aplicado la IA con mayores garantías lo han hecho integrando la gobernanza desde las etapas iniciales de cada proyecto. Esto implica "definir claramente el propósito del modelo, los riesgos asociados, la procedencia de los datos y los criterios de éxito antes de entrenarlo".

El enfoque multidisciplinar permite anticipar riesgos, evitar desarrollos opacos y alinear cada caso de uso con las expectativas de EMA y con el futuro Reglamento Europeo de IA. Efpia considera esencial que esta visión se incorpore formalmente a la regulación para "asegurar coherencia, transparencia y responsabilidad desde el principio"


Priorizar transparencia del modelo por encima del rendimiento


Una de las conclusiones más repetidas en los casos de uso es que, en contextos regulados, la transparencia y la aplicabilidad del modelo pesan más que el rendimiento predictivo bruto.

Las compañías enfatizan que, cuando un modelo de IA contribuye a evidencia científica o a una presentación regulatoria, debe ser "auditado, comprensible y acompañado de documentación completa", aunque ello suponga optar por enfoques más interpretables frente a algoritmos de mayor complejidad.

Efpia propone que los reguladores "diferencien de forma explícita entre transparencia y explicabilidad". Una distinción clave para evitar requisitos innecesarios en modelos de bajo riesgo y focalizar la supervisión en aquellos con impacto clínico directo.


Fomentar la monitorización proactiva y la evaluación continua del riesgo


Incluso en fases piloto, las compañías aplicaron sistemas de monitorización continua, desde "una cultura de vigilancia que demuestra que es posible desarrollar IA de forma responsable", anticipando posibles fallos antes de que generen impacto.

La industria propone que la regulación europea adopte una visión proporcionada y basada en riesgo, reforzando los controles donde el impacto sobre el paciente es directo y simplificando las exigencias en casos de uso exploratorios o retrospectivos.


Estos cinco principios identificados por Efpia reflejan la ambición compartida por la industria de que de que la IA contribuya a mejorar la eficiencia, la calidad de la evidencia y la seguridad del paciente, pero sin generar cargas desproporcionadas ni frenar la innovación.
Las informaciones publicadas en Redacción Médica contienen afirmaciones, datos y declaraciones procedentes de instituciones oficiales y profesionales sanitarios. No obstante, ante cualquier duda relacionada con su salud, consulte con su especialista sanitario correspondiente.