Nvidia estaría a punto de concretar la que sería la mayor adquisición de su historia. Según un nuevo informe, el gigante estadounidense de los semiconductores habría acordado la compra de activos clave de inteligencia artificial pertenecientes a Grok, una startup especializada en chips de IA, en una operación en efectivo valorada en alrededor de 20.000 millones de dólares. De confirmarse, la cifra casi triplicaría la valoración más reciente de Grok y marcaría un hito en la carrera global por el dominio del procesamiento de inteligencia artificial.
Un acuerdo que supera ampliamente la valoración de Grok
Grok recaudó 750 millones de dólares a principios de este año y, tras esa ronda de financiación, fue valorada en aproximadamente 6.900 millones de dólares. El salto hasta los 20.000 millones refleja no solo el interés de Nvidia, sino también el crecimiento explosivo del mercado de IA en tiempo real, donde la inferencia rápida y de baja latencia se ha convertido en un factor crítico.
Hoy, la competencia en inteligencia artificial ya no se centra únicamente en quién tiene mayor capacidad de cómputo, sino en quién puede ofrecer respuestas instantáneas, con alto rendimiento y mínima latencia. En ese contexto, la tecnología de inferencia de Grok resulta especialmente atractiva para Nvidia.
No es una compra total, sino de activos estratégicos
De acuerdo con un reporte de CNBC, Nvidia no estaría adquiriendo la empresa completa, sino activos específicos de tecnología de inferencia de IA, además de sumar talento clave a su equipo. La información fue atribuida a Alex Davis, CEO de Disruptive, firma que lideró la última ronda de inversión de Grok.
Este enfoque selectivo le permite a Nvidia integrar rápidamente tecnología avanzada sin absorber por completo la estructura operativa de la startup, una estrategia que ya ha utilizado en el pasado para reforzar áreas clave de su ecosistema.
La mayor adquisición en la historia de Nvidia
Si se confirma el monto, esta operación superaría con creces la compra de Mellanox en 2019, por la que Nvidia pagó cerca de 7.000 millones de dólares. Al igual que Mellanox, Grok es una empresa fabless, es decir, diseña chips pero no los fabrica, un modelo que encaja bien con la filosofía de expansión tecnológica de Nvidia.
La operación subraya la intención de la compañía de seguir fortaleciendo su dominio en el sector de la IA mediante hardware especializado y soluciones de alto rendimiento, especialmente en un momento en el que la demanda global no deja de crecer.
Grok habla de un acuerdo de licencia
Curiosamente, Grok ha sido más cauta en su comunicación oficial. En una publicación realizada en Nochebuena, la empresa describió el acuerdo como una “licencia no exclusiva” de su tecnología de inferencia, sin mencionar cifras ni detallar qué activos específicos están involucrados.
Como parte del acuerdo, el fundador Jonathan Ross, el presidente Sunny Madra y otros miembros clave del equipo se unirán a Nvidia. No obstante, Grok aclaró que su plataforma en la nube, GrokCloud, no forma parte del trato.
GrokCloud seguirá operando de forma independiente
Grok confirmó que GrokCloud continuará como un negocio independiente, ahora bajo el liderazgo de Simon Edwards, quien pasa de CFO a CEO. Esto indica que la empresa seguirá compitiendo en el espacio de la nube de IA, incluso mientras su tecnología central de inferencia se integra en el ecosistema de Nvidia.
Más potencia para las “fábricas de IA” de Nvidia
Según CNBC, el CEO de Nvidia, Jensen Huang, comunicó internamente que la tecnología de Grok permitirá mejorar significativamente la arquitectura de las llamadas “fábricas de IA” de la compañía. Los procesadores de baja latencia de Grok se integrarían para optimizar tareas de inferencia en tiempo real y cargas de trabajo de alto rendimiento.
Huang habría dejado claro que Nvidia no está comprando Grok como empresa, sino licenciando su propiedad intelectual y sumando talento estratégico. De cerrarse el acuerdo, Nvidia reforzaría aún más su posición dominante en el mercado de hardware para IA, justo cuando la competencia por soluciones de inferencia más rápidas y eficientes se vuelve cada vez más intensa.
