Google acerca a Gemini a la automatización total en Android: así funcionaría el nuevo “Screen Optimization”

La integración de la inteligencia artificial en los dispositivos móviles avanza a pasos acelerados, y Google parece estar preparando su próximo gran movimiento. Según nuevos reportes, el gigante tecnológico estaría cada vez más cerca de permitir que Gemini, su suite de IA, pueda realizar tareas directamente dentro de aplicaciones en Android, y no solo responder preguntas o generar texto.

La información surge tras el análisis de una versión beta (17.4) de la app de Google, donde se encontraron referencias a una nueva función denominada “Screen Optimization”. Este hallazgo, reportado por 9to5Google, proviene de un proceso conocido como APK teardown, una técnica que examina el código interno de una aplicación para descubrir funciones que podrían llegar en futuras actualizaciones. Aunque nada está confirmado oficialmente, las pistas son claras sobre la dirección que Google estaría explorando.

Gemini como agente en pantalla: más allá del asistente tradicional

De implementarse, esta nueva función permitiría que Gemini actúe como un agente en pantalla, capaz de interactuar con aplicaciones compatibles en nombre del usuario. Internamente, Google habría bautizado este sistema como “bonobo”, y los textos encontrados en el código hacen referencia a una experiencia llamada “Get tasks done with Gemini”.

En la práctica, Gemini podría reservar viajes, realizar pedidos básicos o completar formularios, siguiendo los pasos que la propia aplicación exige. A diferencia de los asistentes tradicionales que solo responden comandos, esta versión de Gemini podría navegar interfaces, seleccionar opciones, confirmar acciones e incluso finalizar procesos completos, siempre bajo supervisión del usuario.

Eso sí, al menos en una primera etapa, la compatibilidad estaría limitada a ciertas aplicaciones, por lo que no se espera una automatización total del sistema desde el lanzamiento.

Control del usuario y advertencias claras

Google también ha incluido advertencias importantes en la beta. La compañía reconoce que Gemini puede cometer errores y deja en claro que la responsabilidad final de las acciones realizadas recae en el usuario. Además, se podrá detener el proceso en cualquier momento y retomar el control manual de la aplicación.

Esta postura refuerza la idea de que, al menos inicialmente, la automatización será una función asistida y no completamente autónoma.

¿Y la privacidad? Uno de los puntos más sensibles

Uno de los aspectos más relevantes de esta nueva función tiene que ver con la privacidad y el manejo de datos. Los avisos incluidos en la beta indican que, cuando Gemini interactúe con otras apps, capturas de pantalla de esas interacciones podrían ser revisadas por evaluadores humanos, pero únicamente si el usuario tiene activado el historial de actividad.

Google asegura que este proceso tiene como objetivo mejorar el funcionamiento del servicio, aunque también recomienda a los usuarios no compartir información sensible, como contraseñas, datos bancarios o credenciales de pago dentro de los chats con Gemini.

Asimismo, la compañía advierte que la automatización de pantalla no debería utilizarse en situaciones de emergencia ni para tareas que involucren información altamente sensible, dejando claro que esta tecnología aún requiere un uso responsable.

Otras novedades detectadas en la beta

Además de “bonobo”, en el código también aparece otro nombre clave: “Wasabi”, vinculado a una función llamada “Likeness”. Todo indica que estaría relacionada con avatares 3D, una tecnología que ya se utiliza en Android XR y en funciones como las llamadas de Google Meet.

Esto sugiere que Google no solo está apostando por la automatización, sino también por experiencias más inmersivas y personalizadas impulsadas por inteligencia artificial.

Un vistazo al futuro de Android

Estos descubrimientos refuerzan la idea de que Google está trabajando en una integración mucho más profunda de la IA en el ecosistema Android. Si Gemini logra ejecutar tareas directamente en las aplicaciones, la forma en que los usuarios interactúan con sus dispositivos podría cambiar radicalmente, acercándose a un modelo donde el asistente no solo aconseja, sino que actúa.

Sin embargo, junto con las posibilidades también surgen desafíos claros, especialmente en términos de seguridad, privacidad y control del usuario. Si la función llega oficialmente, su adopción dependerá en gran medida de cómo Google logre equilibrar innovación y confianza.

Por ahora, todo indica que el futuro de Android será cada vez más inteligente… y también más automatizado.