Google planea añadir un segundo modelo Gemini, basado en Gemini, a Chrome para abordar los problemas de seguridad creados por el primer modelo integrado en el navegador.
En septiembre, Google añadió una ventana de chat impulsada por Gemini al navegador y prometió que pronto ganaría capacidades agentic que permiten interactuar con controles del navegador y otras herramientas ante una instrucción.
Permitir que modelos de IA erróneos naveguen por la web sin intervención humana es peligroso, ya que pueden ingerir contenido de páginas maliciosas que les indiquen ignorar salvaguardas; se conoce como indirect prompt injection.
El ingeniero de seguridad de Google, Nathan Parker, describe el riesgo en un blog como la principal nueva amenaza para todos los navegadores agentic.
La solución de Google incluye un mecanismo llamado User Alignment Critic, que revisa tras la planificación y puede vetar acciones que no estén alineadas con el objetivo del usuario, garantizando que las acciones sean seguras y relevantes.
Además, Google pretende ampliar la transparencia de las interacciones agenticas, exigir confirmación del usuario para acciones sensibles y aplicar medidas de aislamiento como la same-origin policy y la Site Isolation, con extensiones de origin isolation para evitar datos de orígenes no autorizados.
El informe señala que la empresa también actualizó su programa de recompensas por vulnerabilidades, con pagos de hasta 20 000 dólares, para que investigadores auditen las salvaguardas de seguridad de Chrome y su marco de IA.
La técnica CaMeL (Capabilities for MachinE Learning) se cita como patrón para usar una segunda LLM para moderar la primera, una idea que ya fue formalizada en un paper de Google DeepMind este año.
En resumen, la estrategia de Google para Chrome AI busca equilibrar utilidad y seguridad, usando un segundo modelo y herramientas como el User Alignment Critic para que las decisiones de la IA estén alineadas con el usuario y los riesgos se gestionen de forma proactiva.



