Google podría revolucionar la creación de video con IA en Google I/O 2026 gracias a Gemini Omni

La cuenta regresiva para Google I/O 2026 ya comenzó y, como suele ocurrir antes del gran evento anual de desarrolladores de Google, las filtraciones y rumores empiezan a tomar fuerza. A pocos días de su presentación oficial programada para el 19 de mayo de 2026, nuevas informaciones apuntan a que la compañía estaría preparando una importante evolución para las capacidades de generación de video mediante inteligencia artificial dentro de Google Gemini.

Según diversos reportes y demostraciones filtradas en internet, Google estaría trabajando en una nueva herramienta llamada “Create with Gemini Omni”, una función que permitiría no solo generar videos con IA, sino también editarlos directamente dentro del propio chat de Gemini. Aunque la empresa todavía no ha confirmado oficialmente la existencia de esta tecnología, las filtraciones han despertado una enorme expectativa sobre lo que podría anunciarse durante Google I/O.

Gemini Omni: el próximo gran salto de Google en video con IA

De acuerdo con un informe publicado por 9to5Google, al menos un usuario habría detectado dentro de la plataforma Gemini un nuevo prompt denominado “Create with Gemini Omni”. La descripción filtrada señala que se trataría de un modelo avanzado de generación de video impulsado por inteligencia artificial, capaz de realizar tareas como:

  • Crear videos desde texto.
  • Editar clips directamente dentro del chat.
  • Remixar contenido audiovisual.
  • Utilizar plantillas creativas.
  • Ajustar escenas automáticamente.

Aunque todavía existen pocos detalles concretos sobre su funcionamiento, algunos metadatos vinculados al sistema sugieren que Gemini Omni podría estar construido sobre la tecnología de Google Veo, el modelo de generación de video presentado previamente por Google y enfocado en clips de alta calidad.

Esto indicaría que Omni no sería un sistema completamente nuevo, sino una evolución más avanzada e integrada dentro del ecosistema Gemini.

Videos más realistas y movimientos naturales

Uno de los aspectos que más llamó la atención de las filtraciones fueron las supuestas demos internas que muestran avances importantes en realismo visual y composición de escenas.

Uno de los videos filtrados presentaba a un profesor resolviendo y explicando demostraciones trigonométricas en una pizarra. Lo impresionante del clip no era solamente la calidad visual, sino la capacidad de la IA para representar correctamente ecuaciones matemáticas complejas mientras mantenía movimientos naturales en las manos, expresiones faciales coherentes y sincronización corporal convincente.

Las herramientas actuales de generación de video con IA todavía suelen tener problemas con detalles como dedos deformes, movimientos poco naturales o errores al renderizar texto y símbolos matemáticos. Sin embargo, los rumores indican que Gemini Omni habría mejorado considerablemente en esos apartados.

El famoso “Spaghetti Test” también habría sido superado

Otra demostración filtrada utilizó el conocido “spaghetti test”, una prueba que se ha vuelto popular para evaluar la calidad de los modelos de video generativo.

La escena mostraba a dos hombres conversando mientras comían spaghetti en un restaurante frente al mar. Este tipo de situaciones suele representar un enorme desafío para las IA debido a la complejidad de coordinar movimientos precisos de manos, utensilios y alimentos.

Según los reportes, Gemini Omni habría mostrado resultados mucho más convincentes que generaciones anteriores de modelos de IA, destacando especialmente en:

  • Coordinación de manos.
  • Interacción entre objetos.
  • Expresiones faciales naturales.
  • Física más coherente.
  • Movimiento cinematográfico más fluido.

De confirmarse estos avances, Google podría posicionarse como uno de los líderes absolutos en generación de video con inteligencia artificial, compitiendo directamente con plataformas como OpenAI y otros desarrolladores que actualmente buscan dominar este segmento.

Los límites de uso podrían ser estrictos

Otra de las filtraciones relacionadas con Gemini Omni tiene que ver con el consumo de recursos.

El usuario que habría tenido acceso anticipado a la función también detectó una nueva sección de seguimiento de uso dentro de la aplicación Gemini. Lo más llamativo es que, aparentemente, la generación de apenas dos videos consumió el 86 % del límite diario disponible en el plan Google AI Pro.

Esto sugeriría que Google impondría restricciones mucho más estrictas para la creación de video en comparación con funciones tradicionales como generación de imágenes o respuestas de texto.

La razón probablemente estaría relacionada con el enorme poder computacional que requiere producir videos realistas mediante IA, especialmente si Google apunta a calidad cinematográfica y escenas complejas en tiempo real.

Google apuesta fuerte por el futuro audiovisual de la IA

La filtración llega en un momento clave para Google. Durante los últimos meses, la compañía ha intensificado su enfoque en herramientas creativas impulsadas por inteligencia artificial, integrando funciones avanzadas en productos como Gemini, Workspace y Android.

Por eso, muchos analistas consideran que Google I/O 2026 podría convertirse en el escenario ideal para presentar oficialmente Gemini Omni y mostrar cómo encajará dentro del ecosistema de inteligencia artificial de la empresa.

Además, el movimiento también reflejaría la creciente importancia del video generado por IA como una de las próximas grandes fronteras tecnológicas. Actualmente, las empresas del sector compiten no solo por crear imágenes más realistas, sino por desarrollar herramientas capaces de producir contenido audiovisual completo, editable y cada vez más indistinguible de una grabación real.

Por ahora, todo sigue siendo un rumor

A pesar de la emoción generada por estas filtraciones, es importante recordar que Google todavía no ha realizado ningún anuncio oficial sobre Gemini Omni.

Toda la información disponible hasta ahora proviene de reportes, capturas filtradas y supuestas pruebas tempranas detectadas por usuarios. Por ello, habrá que esperar hasta la presentación oficial de Google I/O 2026 para conocer si estas funciones realmente existen, cómo funcionarán y cuándo estarán disponibles para el público.

Sin embargo, si los rumores terminan siendo ciertos, Google podría estar preparando uno de los anuncios más importantes del año en el terreno de la inteligencia artificial generativa.