Fuga de código en Anthropic: el error humano que expuso el corazón de Claude Code

La empresa de inteligencia artificial Anthropic atraviesa un momento complejo tras una filtración accidental que dejó al descubierto parte del código fuente de Claude Code, una de sus herramientas clave orientadas al desarrollo asistido por IA. Aunque la compañía ha calificado el incidente como un simple “error humano”, el alcance de la exposición ha encendido alarmas en toda la industria tecnológica.

¿Qué ocurrió exactamente?

El incidente se originó cuando un archivo que no debía hacerse público fue incluido por error en un paquete publicado en npm. Este fallo permitió que el código interno quedara accesible en internet. En cuestión de horas, alguien compartió el archivo completo en la red social X, donde la publicación alcanzó alrededor de 30 millones de visualizaciones, propagando rápidamente la información.

El propio creador de Claude Code, Boris Cherny, explicó que el problema se debió a un paso manual en el proceso de despliegue que no se ejecutó correctamente. Este detalle revela una realidad incómoda: incluso las empresas más avanzadas en IA pueden depender de procesos manuales vulnerables a errores humanos.

¿Qué información se filtró?

La filtración incluyó cerca de 2.200 archivos y unos 30 MB de código en TypeScript. Pero lo más delicado no fue solo la cantidad, sino la calidad de la información expuesta. Según reportes, el código contenía herramientas internas, técnicas propietarias e instrucciones utilizadas para guiar el comportamiento de los modelos de IA.

Uno de los elementos más relevantes es el denominado “Harness”, un sistema que permite controlar y dirigir cómo actúan los modelos de inteligencia artificial. Con este material en manos de terceros, competidores y desarrolladores ya no necesitan realizar ingeniería inversa para entender cómo funciona parte del sistema.

Además, existe un riesgo importante: actores malintencionados podrían analizar el código en busca de vulnerabilidades explotables, lo que podría comprometer la seguridad futura del sistema.

Hallazgos curiosos dentro del código

Tras la filtración, desarrolladores de todo el mundo comenzaron a analizar el contenido. Entre los descubrimientos más llamativos se encuentran referencias a modelos aún no publicados, como Opus 4.7 y Sonnet 4.8, junto con nombres internos como “Capybara” y “Tengu”.

Sin embargo, el elemento que más llamó la atención fue un sistema llamado KAIROS. Este parece ser un agente autónomo que funciona en segundo plano, capaz de tomar iniciativas, ejecutar tareas de forma proactiva y mantener un registro diario de sus acciones. Incluso ejecuta un proceso nocturno denominado “autoDream”, diseñado para reorganizar lo aprendido.

También se encontraron detalles más ligeros, como un asistente de programación estilo Tamagotchi que reacciona a las acciones del usuario, y un sistema que detecta insultos como indicadores de sentimiento negativo.

Un problema que se repite en la industria

Este incidente no es aislado. Informes previos ya habían señalado filtraciones similares, incluyendo una que expuso casi 3.000 archivos con información sobre modelos internos. La repetición de estos eventos evidencia un patrón preocupante.

Expertos en seguridad advierten que estas filtraciones facilitan la comprensión de sistemas internos complejos, aumentando el riesgo para las empresas. En el contexto actual, donde la adopción de IA se acelera, muchos equipos están integrando nuevas herramientas sin aplicar los controles de seguridad tradicionales.

Un caso reciente refuerza esta preocupación: una brecha en la startup Mercor, causada por un compromiso en la cadena de suministro de una librería open source, permitió el robo de hasta 4 terabytes de datos sensibles en apenas 40 minutos.

El verdadero problema: velocidad vs seguridad

La carrera por implementar inteligencia artificial está llevando a muchas empresas a priorizar la velocidad sobre la seguridad. Según especialistas, este enfoque está replicando errores clásicos del desarrollo de software, pero con un impacto potencial mucho mayor debido al poder de estas nuevas herramientas.

Las soluciones de IA no solo manejan grandes volúmenes de datos, sino que también pueden automatizar procesos complejos. Si son comprometidas, el daño puede ser significativamente más grave que en sistemas tradicionales.

¿Qué pueden hacer las empresas?

Aunque Anthropic ha asegurado que no se expusieron datos de clientes ni credenciales sensibles, el incidente deja lecciones importantes. Los expertos recomiendan:

  • Tratar las dependencias de IA como componentes críticos de la cadena de suministro.
  • No omitir controles de seguridad en favor de una adopción rápida.
  • Implementar sistemas de monitoreo, auditoría y respuesta a incidentes antes de desplegar herramientas en producción.
  • Evaluar las soluciones de IA con marcos específicos, diferentes a los del software tradicional.

Además, enfatizan la necesidad de desacelerar ligeramente el ritmo de implementación para asegurar que los sistemas estén correctamente instrumentados y protegidos.

Una advertencia para el futuro

Este episodio demuestra cómo un error aparentemente menor puede tener consecuencias masivas en el contexto de la inteligencia artificial. A medida que la industria avanza, la seguridad debe evolucionar al mismo ritmo.

La lección es clara: en la carrera por liderar la revolución de la IA, no basta con innovar rápido. Las empresas que realmente triunfarán serán aquellas que construyan sistemas seguros, con controles sólidos y procesos disciplinados desde el inicio.

En un ecosistema cada vez más dependiente de la inteligencia artificial, los errores evitables ya no son simples fallos técnicos: son riesgos estratégicos.