Microsoft lanza un parche de seguridad genética para frenar los riesgos del uso de IA en biotecnología

La inteligencia artificial está revolucionando la biotecnología, pero junto con su poder transformador surgen nuevos peligros. Un estudio respaldado por Microsoft ha encendido las alarmas tras demostrar que las herramientas de IA pueden ser manipuladas para diseñar proteínas tóxicas, lo que plantea un serio desafío para la bioseguridad global.

Un parche para la seguridad del ADN: el primer paso

En respuesta a estos hallazgos, Microsoft presentó un parche parcial para los sistemas de cribado de síntesis de ADN, una medida destinada a detectar y bloquear la creación de secuencias peligrosas antes de que lleguen a laboratorios o fabricantes.

Adam Clore, director de I+D en tecnología de Integrated DNA Technologies (IDT) y coautor del informe, reconoció que la solución aún está lejos de ser definitiva. “El parche es incompleto y el estado del arte está cambiando”, explicó. “Pero esto no es algo de una sola vez; es solo el comienzo de más pruebas. Estamos en una especie de carrera armamentista”.

Aunque los investigadores mantuvieron en secreto varios detalles de su experimento para evitar usos indebidos, se sabe que el estudio se centró en proteínas altamente tóxicas, similares a la ricina o a los priones infecciosos asociados con enfermedades neurodegenerativas como la encefalopatía espongiforme bovina (mal de las vacas locas).

La necesidad urgente de un control más fuerte

Expertos en bioseguridad advierten que este tipo de experimentos subraya la urgencia de reforzar los sistemas de detección genética. Dean Ball, investigador de la Foundation for American Innovation, señaló que “la combinación de los avances rápidos en modelado biológico impulsado por IA con la facilidad de acceso a herramientas de síntesis de ADN exige procedimientos más estrictos, acompañados de supervisión y verificación efectivas”.

De hecho, la revisión del control de síntesis de ADN ya es considerada una piedra angular de la bioseguridad en Estados Unidos. En mayo de 2024, el presidente Donald Trump firmó una orden ejecutiva para fortalecer las normas de seguridad biológica, aunque los nuevos lineamientos aún no se han publicado.

Críticas desde la comunidad de seguridad en IA

No todos confían en que la propuesta de Microsoft sea suficiente. Michael Cohen, investigador de seguridad en IA en la Universidad de California, Berkeley, advirtió que actores maliciosos podrían disfrazar secuencias peligrosas para evadir la detección.

“El desafío que plantean parece débil, y sus herramientas parcheadas siguen fallando con frecuencia”, criticó Cohen. “Parece haber una falta de voluntad para admitir que, tarde o temprano, tendremos que retroceder desde este supuesto punto de control”.

Cohen sugiere que la protección debería integrarse directamente dentro de los modelos de IA, limitando la información que estos pueden generar, en lugar de depender exclusivamente de las empresas que fabrican ADN.

IA versus ADN: el nuevo campo de batalla

Pese a las críticas, Clore defiende que la fabricación de ADN sigue siendo un punto de defensa viable, ya que solo unas pocas compañías dominan el mercado estadounidense y mantienen estrecha colaboración con las autoridades. En cambio, el desarrollo y entrenamiento de modelos de IA es mucho más descentralizado y difícil de controlar.

“No se puede volver a meter al genio en la botella”, advirtió Clore. “Si tienes los recursos para intentar engañarnos y fabricar una secuencia de ADN peligrosa, probablemente también puedas entrenar un modelo de lenguaje grande”.

El parche de seguridad genética de Microsoft representa apenas un primer intento por abordar una amenaza que evoluciona tan rápido como la tecnología que la origina. Mientras algunos expertos confían en la vigilancia del ADN como un filtro eficaz, otros sostienen que la verdadera solución debe venir desde el corazón de la IA. Lo único claro es que la carrera entre innovación y seguridad biológica ya está en marcha, y las consecuencias de perderla podrían ser irreversibles.