La Inteligencia Artificial en la Guerra: EE. UU. Utiliza Tecnología de Anthropic en Ataque a Irán en Medio de una Controversia Política y de Seguridad

La inteligencia artificial (IA) se está convirtiendo en un componente cada vez más fundamental en los conflictos armados modernos. Sin embargo, su uso también ha generado una profunda controversia política y de seguridad nacional en Estados Unidos, particularmente alrededor de la empresa estadounidense Anthropic y su modelo de IA “Claude”.

🛩️ Uso de Claude AI en Operaciones Militares

Según informes recientes, las fuerzas armadas de Estados Unidos habrían empleado herramientas de inteligencia artificial desarrolladas por Anthropic durante un ataque aéreo contra Irán, apenas horas después de que el gobierno anunciara públicamente que dejaría de utilizar esa tecnología.

El sistema de IA —conocido como Claude— fue supuestamente usado por el United States Central Command (Comando Central de EE. UU.) para evaluar inteligencia, identificar objetivos y simular escenarios de batalla en la planificación de la ofensiva.

Este ataque, parte de lo que se ha denominado “Operación Epic Fury”, representó uno de los despliegues más significativos de IA en un teatro de combate real, marcando un hito en la adopción militar de tecnologías avanzadas.

📉 Prohibición Pública vs. Realidad Operativa

La polémica comenzó cuando el presidente estadounidense Donald Trump ordenó que todas las agencias federales cesaran inmediatamente el uso de tecnología desarrollada por Anthropic, calificando a la empresa de un “riesgo para la seguridad nacional” y criticándola duramente en redes sociales.

A pesar de ese anuncio, el gobierno estableció un periodo de transición de seis meses, especialmente para el Departamento de Defensa, con el objetivo de permitir una transición ordenada a otras tecnologías —como las ofrecidas por empresas rivales— sin interrumpir operaciones críticas.

Esa brecha entre el anuncio público y la realidad operativa es la que explica —según fuentes— por qué Claude todavía fue utilizado en la misión poco después de la orden presidencial.

🤝 Tensiones Entre el Gobierno y Anthropic

Las relaciones entre Anthropic y el gobierno de EE. UU. se habían deteriorado durante meses debido a diferencias sobre cómo utilizar la IA en contextos militares. El Pentágono quería mayores libertades para emplear estas tecnologías sin restricciones, mientras que Anthropic insistía en que no permitiría el uso de su IA en vigilancia masiva de ciudadanos ni en armas totalmente autónomas sin supervisión humana.

La empresa incluso ha anunciado que combatirá legalmente cualquier intento de clasificarla como un riesgo para la cadena de suministro, calificando tal medida como algo “sin precedentes” y potencialmente peligroso para futuros acuerdos entre gobierno y la industria tecnológica.

⚖️ El Dilema de la IA en la Defensa

Este caso subraya un dilema más amplio: la velocidad con la que la inteligencia artificial se integra en operaciones militares supera la capacidad de marcos políticos y legales para regularla eficazmente. Aunque la IA puede ofrecer ventajas estratégicas significativas, también plantea preguntas complejas sobre control, ética y responsabilidad en el uso de la fuerza.

Mientras tanto, el conflicto entre seguridad nacional y regulación de tecnologías avanzadas continuará siendo un debate central en Estados Unidos y a nivel internacional.