A Google implementou uma nova camada de segurança no Chrome para proteger os utilizadores contra ataques de injeção de 'prompts' direcionados aos seus agentes de IA. Esta medida surge como resposta aos riscos crescentes de manipulação que podem levar a transações financeiras não autorizadas ou à extração de dados sensíveis. A integração de agentes de Inteligência Artificial (IA) nos navegadores, como o Gemini, representa um avanço significativo na interação do utilizador com a web, mas introduz vetores de ataque inéditos. Ao contrário da IA generativa, que apenas cria conteúdo, os agentes de IA podem executar ações de forma autónoma, tornando-os alvos valiosos. A principal ameaça é a injeção indireta de 'prompts', onde conteúdo malicioso numa página web pode manipular o agente para executar ações não autorizadas.
Para mitigar este risco, a Google adotou uma abordagem de defesa em várias camadas.
Esta estratégia combina mecanismos deterministas com controlos baseados em IA, utilizando técnicas como o 'spotlighting', que ensina o modelo a priorizar as instruções do utilizador sobre o conteúdo da página.
Adicionalmente, foi introduzido um segundo modelo de IA, denominado 'User Alignment Criti', que atua como um supervisor de confiança.
A sua função é rever e vetar as ações propostas pelo agente principal antes da sua execução, garantindo que estão alinhadas com o objetivo inicial do utilizador.
Este componente de verificação tem acesso limitado ao conteúdo web para minimizar a sua própria superfície de ataque. A Google estendeu também os princípios de segurança do navegador, como o isolamento entre sites, ao contexto dos agentes e implementou um classificador específico que analisa as páginas em tempo real para detetar tentativas de injeção, reforçando a proteção do utilizador.
Em resumoA Google está a adotar uma abordagem de defesa em profundidade para mitigar os riscos associados aos agentes de IA no Chrome. Através de uma combinação de técnicas de priorização de comandos, um modelo de verificação secundário e classificadores de ameaças em tempo real, a empresa procura proteger os utilizadores contra a manipulação por injeção de 'prompts', garantindo maior segurança e controlo sobre as ações autónomas da IA.