Esta dualidade está a acelerar uma nova corrida ao armamento digital, onde a capacidade de antecipação se torna mais crítica do que a simples resposta a incidentes. Do lado das ameaças, a IA está a permitir a criação de ataques mais autónomos e adaptativos.

O Google Threat Intelligence Group já alerta para uma nova geração de malware autoevolutivo, capaz de alterar o seu comportamento para evitar a deteção. A Anthropic documentou um ataque de grande escala conduzido com intervenção humana mínima, onde um sistema de IA operou de forma autónoma contra múltiplos alvos. Além do malware, a IA generativa é usada para criar `deepfakes` e falsas identidades, como no caso do canal de YouTube que replicava a imagem e voz de Yanis Varoufakis, erodindo a confiança no espaço público digital. A produção em massa de `slop` — conteúdo de baixa qualidade gerado por IA para desinformação ou fraude — tornou-se tão prevalente que foi eleita a palavra do ano pelo dicionário Merriam-Webster. Em contrapartida, a indústria da cibersegurança está a investir massivamente em defesas baseadas em IA, com mais de 28 mil milhões de dólares já aplicados.

Estas tecnologias são essenciais para detetar padrões anómalos e responder a ameaças em tempo real, a uma velocidade impossível para analistas humanos.

No entanto, a tecnologia não substitui o julgamento humano; a procura por analistas de segurança, engenheiros de privacidade e especialistas em ética de IA continua a crescer, pois são necessários para gerir os sistemas, interpretar riscos complexos e alinhar a tecnologia com a estratégia de negócio.