A Google está a reforçar a segurança do Chrome com uma nova camada de defesa projetada especificamente para combater os riscos emergentes dos agentes de IA, como os ataques de injeção de "prompts". Esta abordagem proativa visa proteger os utilizadores de manipulações maliciosas que podem levar à extração de dados confidenciais ou a transações financeiras não autorizadas. Com a integração de agentes de IA como o Gemini no navegador, surge a ameaça da injeção indireta de instruções, onde código malicioso numa página web pode tentar desviar o agente do seu propósito original.
Para mitigar este risco, a Google implementou uma defesa em várias camadas.
A primeira utiliza técnicas como o "spotlighting", que treina o modelo principal a dar prioridade às instruções do utilizador em detrimento do conteúdo da página.
A camada mais inovadora, no entanto, é a introdução de um segundo modelo de IA, denominado "User Alignment Critic". Este componente de alta confiança atua como um revisor, analisando as ações propostas pelo agente principal antes de serem executadas.
Se uma ação for considerada desalinhada com o objetivo inicial do utilizador, é vetada.
Este sistema foi desenhado para ter acesso limitado ao conteúdo da página, reduzindo a sua própria superfície de ataque.
Esta arquitetura de segurança estende os princípios clássicos de isolamento do navegador ao novo paradigma da IA, garantindo que o poder dos agentes autónomos não compromete a segurança do utilizador.
Em resumoPara proteger os utilizadores contra a manipulação de agentes de IA, o Google implementou no Chrome um sistema de segurança em camadas. A inovação principal é um segundo modelo de IA que atua como um 'crítico', vetando ações que se desviem das intenções do utilizador, prevenindo assim ataques de injeção de 'prompts'.