A proliferação de IA ofensiva, deepfakes e desinformação organizada representa um ponto de viragem no panorama da segurança digital global. Várias análises de empresas como a Zscaler e a NordVPN indicam que a IA está a reduzir as barreiras de entrada para o cibercrime, tornando-o mais acessível e eficiente. Ferramentas como o “Evil-GPT”, já disponíveis na dark web, permitem a criação de sistemas de ataque autónomos capazes de sondar redes, aprender com o ambiente e ajustar estratégias sem intervenção humana. Esta automação levará a uma escalada de ataques de engenharia social, como phishing e a criação de deepfakes e identidades sintéticas, que erodem a confiança nos ambientes digitais. A própria Microsoft admite que os agentes de IA que está a integrar no Windows 11 podem ser perigosos e imprevisíveis.

Em resposta a este cenário, as estratégias de defesa estão a evoluir.

Prevê-se uma maior adoção de modelos Zero Trust, aplicados não apenas a utilizadores humanos, mas também a sistemas de IA. A abordagem poderá evoluir para um princípio de “informação mínima”, restringindo o acesso aos dados de forma mais rigorosa. A crescente sofisticação das ameaças exige também uma mudança de mentalidade por parte dos utilizadores, passando de uma simples literacia digital para uma “higiene digital” consistente, que inclua a verificação de fontes e a gestão segura de credenciais.