DeepSeek lanza DeepSeek-V3.1, su modelo de lenguaje más avanzado y abierto

La startup china de inteligencia artificial DeepSeek ha presentado oficialmente DeepSeek-V3.1, su nuevo modelo insignia que eleva los estándares de rendimiento en razonamiento, uso de herramientas y programación. Con esta versión, la compañía refuerza su reputación de ofrecer prestaciones comparables a las de gigantes como OpenAI y Anthropic, pero a una fracción del costo.

Una arquitectura híbrida y flexible

DeepSeek-V3.1 introduce un modo de pensamiento híbrido, que permite alternar entre generación deliberativa (thinking, con razonamiento en cadena) y generación directa (non-thinking, más rápida y ligera). Esta dualidad brinda flexibilidad para distintas aplicaciones: desde tareas complejas de análisis hasta respuestas inmediatas en contextos sensibles a la latencia.

El modelo también está optimizado para llamadas a herramientas y agentes inteligentes, con soporte estructurado para invocar APIs, ejecutar código o realizar búsquedas en tiempo real. Los desarrolladores pueden diseñar agentes de código personalizados, aprovechando plantillas detalladas que simplifican la integración y el debugging.

Escala masiva con eficiencia

DeepSeek-V3.1 emplea un diseño Mixture-of-Experts (MoE) con 671.000 millones de parámetros totales, de los cuales 37.000 millones se activan por token. Este enfoque reduce los costos de inferencia sin sacrificar capacidad.

Otra mejora clave es su ventana de contexto de 128.000 tokens, muy superior a la de la mayoría de competidores. Para lograrlo, la compañía aplicó un entrenamiento en dos fases de extensión de contexto, procesando billones de tokens con técnicas de microscaling FP8, optimizadas para hardware de última generación.

Resultados en benchmarks

Los resultados de DeepSeek-V3.1 lo posicionan entre los modelos más avanzados del mercado:

  • MMLU-Redux: 93,7 (modo thinking), superando a R1-0528 (93,4).
  • LiveCodeBench: 74,8 en generación de código, por encima de competidores.
  • AIMÉ 2025: 88,4 en razonamiento matemático, mejor que el último R1-0528 (87,5).
  • SWE-bench (modo agente): 54,5 frente a apenas 30,5 de R1-0528.

El modo de pensamiento alcanza o supera el estado del arte en matemáticas y programación, mientras que el modo directo ofrece rapidez con una ligera pérdida de precisión.

Integración y despliegue

DeepSeek ha publicado el modelo bajo licencia MIT en Hugging Face y ModelScope, con todo el código y los pesos disponibles de forma gratuita. Esto abre la puerta a la investigación académica y aplicaciones comerciales sin restricciones.

Si bien ejecutar localmente DeepSeek-V3.1 requiere recursos GPU de gran escala, la compatibilidad con la infraestructura de la versión anterior y las herramientas comunitarias facilitan su adopción.

Un paso hacia la democratización de la IA

Con DeepSeek-V3.1, la compañía demuestra que es posible construir modelos de alto rendimiento, abiertos y rentables. Su capacidad para combinar razonamiento avanzado, integración de herramientas y excelencia en programación lo convierte en una opción sólida tanto para investigadores como para empresas que buscan aprovechar la IA de manera práctica y escalable.

En definitiva, DeepSeek-V3.1 marca un hito en la democratización de la inteligencia artificial, acercando a más actores las capacidades de vanguardia que hasta ahora parecían reservadas a unos pocos gigantes tecnológicos.