OpenAI ha lanzado dos modelos de código abierto revolucionarios llamados GPT-OSS, marcando un hito importante en la democratización de la inteligencia artificial. A diferencia de los modelos tradicionales basados en la nube, estos pueden descargarse y ejecutarse completamente en tu computadora personal, ofreciendo privacidad total y eliminando la dependencia de conexiones a internet.
Los dos modelos disponibles
La familia GPT-OSS incluye dos variantes diseñadas para diferentes capacidades de hardware:
GPT-OSS-20B: El modelo más ligero cuenta con 21 mil millones de parámetros y requiere aproximadamente 16GB de memoria libre. Esta versión está diseñada para usuarios con hardware doméstico de gama media-alta.
GPT-OSS-120B: El modelo más potente tiene 117 mil millones de parámetros y necesita 80GB de memoria para funcionar. Esta versión está orientada a usuarios con equipos de alto rendimiento o servidores dedicados.
Para poner estas cifras en perspectiva, los modelos de frontera como DeepSeek R1 cuentan con 671 mil millones de parámetros y requieren aproximadamente 875GB de memoria, razón por la cual las grandes compañías tecnológicas están construyendo centros de datos masivos a un ritmo acelerado.
Requisitos de hardware
Para ejecutar GPT-OSS-20B en tu sistema doméstico necesitarás:
- Una GPU con al menos 16GB de VRAM dedicada, O
- 24GB o más de memoria del sistema (dejando al menos 8GB libres para el sistema operativo)
El rendimiento dependerá significativamente del ancho de banda de la memoria. Las tarjetas gráficas con memoria GDDR7 o GDDR6X (más de 1000 GB/s) superarán ampliamente a las memorias DDR4 o DDR5 típicas de laptops y escritorios (20-100 GB/s).
Instalación paso a paso
En Windows
- Descarga e instala Ollama para Windows desde su sitio oficial
- Al abrir Ollama, verás un campo marcado como “Enviar mensaje” y un menú desplegable que usa gpt-oss:20b como modelo predeterminado
- Ingresa cualquier prompt. El sistema comenzará a descargar 12.4GB de datos del modelo
- Una vez completada la descarga, puedes interactuar con el modelo normalmente
Uso desde línea de comandos (recomendado):
ollama run gpt-oss
/set verbose
En Linux
- Abre una terminal y ejecuta:
curl -fsSL https://ollama.com/install.sh | sh
- Una vez instalado, ejecuta:
ollama run gpt-oss
- El sistema descargará aproximadamente 13GB de datos
- Activa el modo verbose para obtener estadísticas de rendimiento:
/set verbose
En macOS
- Descarga e instala la versión de Ollama para macOS
- Ejecuta Ollama y asegúrate de que gpt-oss:20b esté seleccionado
- Ingresa tu prompt y presiona el botón de flecha hacia arriba
Nota: Los Mac con chips M1 o superiores ofrecen un rendimiento excelente para este tipo de modelos.
Rendimiento real: pruebas en diferentes sistemas
Para evaluar el rendimiento de GPT-OSS-20B, se realizaron pruebas en tres configuraciones de hardware diferentes utilizando dos prompts: uno complejo (escribir una carta de fan a Taylor Swift) y otro simple (identificar al primer presidente de Estados Unidos).
Sistemas probados:
- Lenovo ThinkPad X1 Carbon (Core Ultra 7-165U, 64GB LPDDR5x-6400)
- Apple MacBook Pro (M1 Max, 32GB LPDDR5x-6400)
- PC personalizado (Nvidia RTX 6000 Ada, AMD Ryzen 9 5900X, 128GB DDR4-3200)
Resultados:
- ThinkPad X1 Carbon: 10 minutos y 13 segundos para la carta compleja, 51 segundos para la pregunta simple
- MacBook Pro M1 Max: 26 segundos para la carta, 3 segundos para la pregunta simple
- PC con RTX 6000: 6 segundos para la carta, menos de medio segundo para la respuesta simple
Características únicas del modelo
GPT-OSS-20B implementa un proceso de “pensamiento” visible, donde el modelo muestra su razonamiento antes de generar la respuesta final. Este enfoque transparente permite a los usuarios entender cómo el modelo llega a sus conclusiones, una característica valiosa tanto para uso educativo como profesional.
Recomendaciones
Si cuentas con una GPU potente o una Mac reciente, experimentarás un rendimiento excelente con GPT-OSS-20B. Sin embargo, si utilizas una laptop con gráficos integrados que Ollama no aprovecha completamente, el procesamiento se trasladará a la CPU, resultando en tiempos de respuesta considerablemente más largos.
Para usuarios con hardware limitado, se recomienda explorar alternativas como LMStudio, otra aplicación popular para ejecutar modelos de lenguaje localmente.
La llegada de GPT-OSS representa un paso importante hacia la democratización de la inteligencia artificial avanzada, permitiendo que más usuarios accedan a capacidades de IA de alto nivel sin depender de servicios en la nube. Esto no solo garantiza mayor privacidad, sino que también abre nuevas posibilidades para aplicaciones especializadas y desarrollo local de soluciones de IA.