El pasado 24 de abril de 2026, la compañía china DeepSeek presentó oficialmente DeepSeek V4 Preview, una nueva generación de modelos de inteligencia artificial open-weight que promete sacudir el mercado por una razón muy clara: ofrece capacidades cercanas a los mejores modelos occidentales, pero a una fracción del costo.
La compañía lanzó dos variantes principales: DeepSeek V4-Pro y DeepSeek V4-Flash, ambas con una impresionante ventana de contexto de 1 millón de tokens, licencia MIT y precios que superan ampliamente en competitividad a proveedores como OpenAI, Anthropic y Google.
¿Qué es DeepSeek V4?
DeepSeek V4 es una nueva familia de modelos de lenguaje basada en arquitectura Mixture-of-Experts (MoE), entrenada con más de 30 billones de tokens, diseñada para ofrecer un equilibrio entre rendimiento, escalabilidad y costos extremadamente bajos.
Según la propia empresa, el rendimiento de V4-Pro se encuentra entre 3 y 6 meses detrás de la frontera tecnológica occidental, posicionándose cerca de modelos como GPT-5.4 y Gemini 3.1 Pro en benchmarks avanzados.
Los modelos lanzados: V4-Pro y V4-Flash
DeepSeek V4-Pro
Es el modelo insignia de la familia:
- 1.6 billones de parámetros
- 49 mil millones de parámetros activos por token
- Entrenado con 33 billones de tokens
- Peso aproximado: 865 GB
DeepSeek afirma que este modelo ofrece un desempeño sobresaliente en:
- Programación
- Matemáticas
- Razonamiento complejo
- Tareas agentic
Aunque aún presenta una brecha frente a modelos cerrados líderes en áreas como conocimiento general y razonamiento de más alto nivel.
DeepSeek V4-Flash
La variante optimizada para velocidad y menor latencia:
- 284 mil millones de parámetros
- 13 mil millones activos por token
- Entrenado con 32 billones de tokens
- Peso aproximado: 160 GB
Está diseñado para cargas de trabajo donde la rapidez es prioritaria, manteniendo capacidades de razonamiento cercanas a V4-Pro.
Modo Thinking y Non-Thinking
Ambos modelos incorporan dos modos de operación:
- Thinking Mode: realiza razonamiento extendido paso a paso antes de responder.
- Non-Thinking Mode: entrega respuestas directas y rápidas.
Este enfoque sigue la tendencia adoptada por otros proveedores frontier para mejorar precisión en tareas complejas sacrificando algo de velocidad.
Eficiencia arquitectónica: el secreto detrás de su bajo costo
DeepSeek destaca dos innovaciones técnicas clave:
- Token-wise Compression
- DeepSeek Sparse Attention
Gracias a estas optimizaciones:
- V4-Pro usa solo 27% del cómputo por token de su generación previa en contextos de 1M tokens.
- Reduce a 10% el tamaño del key-value cache comparado con V3.2.
Esto permite abaratar significativamente el costo de inferencia en prompts extensos.
Precios de DeepSeek V4: el gran factor disruptivo
Tarifas oficiales por millón de tokens
| Modelo | Input | Output |
|---|---|---|
| V4-Flash | $0.14 | $0.28 |
| V4-Pro | $1.74 | $3.48 |
Comparativa con la competencia
| Modelo | Input | Output |
|---|---|---|
| GPT-5.5 | $5 | $30 |
| Claude Opus 4.7 | $5 | $25 |
| Gemini 3.1 Pro | Similar rango | Similar rango |
En términos prácticos:
- V4-Pro cuesta hasta 9 veces menos que GPT-5.5 Pro
- V4-Flash es más barato incluso que muchas versiones Nano/Mini occidentales
Benchmarks: ¿qué tan bueno es realmente?
Programación
DeepSeek reporta:
- 80.6% en SWE-bench Verified
- Apenas 0.2 puntos detrás de Claude Opus 4.6
Además, una versión interna V4-Pro-Max habría logrado:
- 93.5% en LiveCodeBench Pass@1
Conocimiento General
Aquí aparece su principal debilidad:
- 57.9% en SimpleQA-Verified
Comparado con:
- Gemini 3.1 Pro: 75.6%
Esto sugiere limitaciones en:
- Recall factual
- Entidades nombradas
- Eventos recientes
- Conocimiento histórico
Open Weight + Licencia MIT: gran ventaja para empresas
Una de las mayores fortalezas de DeepSeek V4 es que sus pesos están disponibles públicamente bajo licencia MIT en Hugging Face.
Esto permite a empresas:
- Auto-hospedar el modelo
- Ejecutarlo en infraestructura privada
- Desplegarlo en nubes soberanas
- Evitar depender de la API oficial china
El problema: soberanía de datos y compliance
Aunque DeepSeek ofrece una API hospedada, esta opera desde China, lo que genera importantes desafíos regulatorios para muchas empresas.
Especialmente en sectores como:
- Salud
- Gobierno
- Servicios financieros
- Legal
- Empresas con datos sensibles
Para estos casos, enviar información a la API oficial implica riesgos regulatorios y de compliance.
¿Qué significa esto para el mercado?
DeepSeek V4 cambia radicalmente la ecuación económica de la IA para workloads de alto volumen:
Casos donde puede ser revolucionario
- Análisis masivo de documentos
- Clasificación de grandes datasets
- Scraping con agentes IA
- Enriquecimiento de datos públicos
- Generación sintética de contenido
En muchos de estos escenarios, el ahorro de costos puede ser de 5x a 10x.
El desafío del self-hosting
Aunque los pesos están disponibles, ejecutar DeepSeek V4-Pro localmente no es trivial:
- Modelo de 1.6T parámetros
- Requiere hardware extremadamente costoso
- Infraestructura de inferencia avanzada
- Operación y mantenimiento complejos
Por ello, el beneficio real del open-weight se concentra principalmente en:
- Grandes empresas
- Proveedores de inferencia
- Equipos con infraestructura AI madura
DeepSeek V4 no supera aún a GPT-5.4 o Gemini 3.1 Pro en capacidad absoluta, pero se acerca lo suficiente como para convertirse en una alternativa extremadamente atractiva para empresas sensibles al costo.
Su combinación de:
- Rendimiento competitivo
- Ventana de contexto de 1M tokens
- Open weights
- Licencia MIT
- Precios disruptivos
lo posiciona como uno de los lanzamientos más importantes del año en inteligencia artificial.
La verdadera pregunta ya no es si DeepSeek puede competir tecnológicamente con Occidente, sino cuánto tardarán las empresas en encontrar una forma segura y regulada de adoptarlo.
