Ferramentas de IA generativa, cada vez mais acessíveis, permitem criar imitações realistas de executivos, explorando a confiança e a autoridade para manipular colaboradores e roubar informação sensível.

Esta tendência representa uma evolução perigosa da chamada “fraude do CEO”.

Em vez de um simples e-mail, os criminosos utilizam agora áudios e vídeos falsificados que replicam com precisão a voz, a imagem e os maneirismos de gestores de topo para dar instruções fraudulentas. Um dos casos mais dramáticos foi o da consultora de engenharia Arup, que perdeu 25 milhões de dólares depois de um funcionário em Hong Kong ter sido convencido por uma reunião virtual que incluía deepfakes realistas dos seus executivos.

Este não é um caso isolado; empresas como a Ferrari e a WPP também foram alvo destes esquemas.

Segundo o The Wall Street Journal, só nos EUA, foram reportados mais de 105.000 ataques relacionados com deepfakes em 2024.

A eficácia destes ataques baseia-se na manipulação de vetores psicológicos como a autoridade e a urgência. Como explica Tiago Lopes Duarte, diretor da Stratesys, “já não se trata apenas de e-mails mal escritos... agora estamos a falar de deepfakes, áudios com imitações perfeitas de diretores ou familiares”. Para mitigar este risco, as empresas são instadas a adotar políticas de autenticação multifatorial para pedidos sensíveis, criar protocolos claros para validação de transferências e, crucialmente, reforçar a literacia digital das equipas para que consigam identificar sinais de manipulação.