Rocío González Soltero, catedrática de Genética Molecular en la Universidad Europea, y Juan José Beunza, atedrático de Salud Pública y director de IASalud en la Universidad Europea
Un nuevo hito en ingeniería genética e
Inteligencia Artificial (IA) ha puesto el genoma humano en el centro del mapa.
Google DeepMind ha presentado AlphaGenome, un modelo de IA capaz de analizar tramos de ADN de hasta un millón de pares de bases y predecir cómo pequeñas variaciones en la secuencia regulan la actividad de los genes y contribuyen al desarrollo de enfermedades. Un salto que, en palabras de los catedráticos de la
Universidad Europea,
Rocío González Soltero y Juan José Beunza, “acerca la medicina de precisión a la realidad clínica, especialmente en campos como la oncología”.
Para explicar qué supone este avance, Juan José Beunza,
catedrático de Salud Pública y director de IASalud en la Universidad Europea, recurre a una imagen sencilla: “El ADN es como un libro inmenso de letras.
Solo una parte pequeña ‘hace proteínas’; el resto son interruptores, reguladores y señales que indican cuándo, dónde y cuánto se activa cada gen. En cáncer, y en muchas otras enfermedades, una gran parte del riesgo viene de cambios en esas zonas reguladoras, pero son muy difíciles de interpretar”. El catedrático subraya que lo verdaderamente novedoso de
AlphaGenome "es que combina panorámica y zoom a la vez". Puede leer tramos muy largos de ADN sin perder el detalle letra a letra, e intenta responder no solo si una variante es problemática, sino qué cambia biológicamente:
si aumenta o reduce la actividad de un gen, si altera el empalme del ARN (splicing) o si modifica la accesibilidad del ADN”.
Un "cambio de foco" sobre el propio genoma
Por su parte,
la catedrática de Genética Molecular de la Universidad Europea, Rocío González Soltero, recuerda que este trabajo supone también un cambio de foco sobre el propio
genoma: “Tradicionalmente se han buscado las
variantes causantes de enfermedad en la parte codificante de los genes, la que se traduce a proteínas, mientras que durante años se habló de ‘ADN basura’ para el resto”. Como explica González Soltero,
“hoy sabemos que esas regiones no codificantes son determinantes en la regulación génica y que muchos cambios de expresión se originan precisamente ahí. El artículo publicado en Nature muestra que una gran parte de la variabilidad funcional se concentra en esas zonas y utiliza un enfoque ‘sequence-to-function’. A partir de datos experimentales procedentes de diferentes técnicas ómicas,
el modelo aprende a asociar cada par de bases con perfiles genómicos específicos”.
En el plano técnico, AlphaGenome se apoya en
arquitecturas de aprendizaje profundo (deep learning) similares a las que se utilizan en modelos de lenguaje, pero adaptadas al ADN: “No es un ChatGPT que genere texto; es un modelo que recibe una secuencia de ADN muy larga y devuelve predicciones de función biológica”, resume Beunza. Primero
comprime la señal con capas convolucionales para detectar patrones locales, después utiliza un bloque tipo transformer para capturar relaciones de largo alcance y finalmente recupera resolución fina con un módulo decodificador inspirado en U-Net. “Sobre esa representación,
el modelo permite hacer mutagénesis in silico, cambiar una sola base y ver si rompe o crea motivos de unión para factores de transcripción como TATA, ETS o MYB.
Eso abre la puerta a explorar mecanismos causales de forma sistemática”, añade la catedrática de Genética Molecular.
El rendimiento comparado con herramientas previas es otro de los puntos fuertes. Según detalla González Soltero,
AlphaGenome mejora a modelos especializados como Pangolin o DeltaSplice en tareas relacionadas con el empalme del ARN y supera a propuestas anteriores como Enformer y Borzoi en la identificación de variantes que realmente afectan a la expresión génica frente a otras que solo están correlacionadas por proximidad. “Lo interesante no es solo que clasifique mejor, sino que ayuda a explicar mecanísticamente algunas enfermedades, algo clave en un contexto de medicina de precisión”, subraya. “Su capacidad para integrar múltiples señales biológicas y procesar secuencias largas
lo posiciona como una de las herramientas más robustas que tenemos ahora mismo para transformar datos genómicos en información clínicamente interpretable”.
De cara a la práctica, ambos expertos insisten en
combinar entusiasmo y prudencia. “Este tipo de modelos atacan un cuello de botella enorme: las variantes difíciles, las que no cambian directamente una proteína pero sí su regulación o su splicing”, señala Beunza.
“Pueden acelerar mucho la priorización de variantes y la generación de hipótesis, especialmente en oncología, pero siguen siendo predicciones: necesitan validación experimental, contexto clínico y una gobernanza clara del uso de datos genómicos”. Para González Soltero, el mensaje de fondo va más allá de la herramienta concreta: “Estamos cada vez más cerca de
descifrar el código regulador de la célula, pero eso exige no solo algoritmos potentes, sino también formar a una nueva generación de profesionales capaces de entender qué pueden y qué no pueden decir estos modelos, y de
integrarlos de forma responsable en la investigación y en la medicina personalizada”.
Las informaciones publicadas en Redacción Médica contienen afirmaciones, datos y declaraciones procedentes de instituciones oficiales y profesionales sanitarios. No obstante, ante cualquier duda relacionada con su salud, consulte con su especialista sanitario correspondiente.