A inteligência artificial (IA) generativa está a tornar-se uma arma poderosa nas mãos de cibercriminosos e atores estatais, que a utilizam para automatizar e escalar ataques com uma sofisticação sem precedentes. Desde a criação de campanhas de phishing mais convincentes até à manipulação de chatbots para disseminar malware, a IA está a baixar as barreiras de entrada para o cibercrime e a aumentar a complexidade das ameaças. Relatórios de entidades como a Microsoft e a NTT DATA indicam que a IA é explorada para desenvolver campanhas de engenharia social altamente credíveis, criar identidades falsas, gerar deepfakes e disseminar desinformação em massa. Ferramentas como o FraudGPT e o WormGPT permitem a automação de e-mails de spear phishing, enquanto sistemas de clonagem de voz e vídeo conseguem contornar mecanismos de verificação de identidade.
A ESET identificou uma nova técnica, denominada "Grokking" ou "AI-aided malvertising", na qual o chatbot Grok, da plataforma X, foi manipulado para divulgar links maliciosos em grande escala.
Através de ataques de "injeção de instruções", os criminosos exploram a confiança dos utilizadores nestas ferramentas para ampliar o alcance das suas fraudes.
Esta "democratização" do cibercrime permite que agentes com pouca experiência técnica lancem ataques sofisticados, fortalecendo modelos como o "crime-as-a-service".
A profissionalização do cibercrime é tal que se observa um crescimento de 32% nos ataques de ransomware e um aumento de 15% na atividade dos "initial access brokers", que vendem acessos a redes empresariais.
Em resumoA IA tornou-se uma ferramenta de duplo gume, sendo cada vez mais explorada por cibercriminosos para aumentar a eficácia e a escala dos seus ataques. A automação de fraudes, a manipulação de chatbots e a criação de desinformação em massa representam uma nova fronteira de ameaças, exigindo que as defesas de cibersegurança se tornem igualmente inteligentes e adaptativas.