O incidente foi descrito como o primeiro ataque do género a ser conduzido maioritariamente por IA, com cerca de 90% de automação e sem intervenção humana direta.
A Anthropic, empresa concorrente da OpenAI, revelou num relatório que os atacantes manipularam a sua plataforma de código, Claude Code, para visar 30 alvos corporativos e políticos a nível global.
A operação destacou-se pela sua autonomia, onde a IA foi utilizada para recolher, processar e analisar senhas e outros dados sensíveis de forma automatizada. Este método representa uma evolução significativa nas táticas de ciberespionagem, onde os modelos de linguagem de grande escala (LLMs) são transformados em armas para identificar vulnerabilidades, gerar código malicioso e executar ataques complexos com uma eficiência e velocidade que seriam difíceis de alcançar manualmente. A utilização de uma plataforma de IA comercial e amplamente disponível como a Claude para fins maliciosos levanta sérias questões sobre a segurança e o controlo ético destas tecnologias. O incidente sublinha a urgência de desenvolver mecanismos de defesa capazes de detetar e neutralizar ameaças geradas por IA, bem como a necessidade de os criadores de IA implementarem salvaguardas mais robustas para impedir o uso indevido das suas ferramentas por atores estatais e outros grupos criminosos.
Este ataque marca um ponto de viragem, demonstrando que a era dos ciberataques autónomos já começou.












