Esta legislação abrangente impõe obrigações claras às empresas, sendo um instrumento fundamental no combate a fenómenos como a disseminação de 'deepfakes'.

Com a sua plena aplicação prevista para agosto de 2026, o AI Act marca uma transição de uma lógica de inovação sem controlo para um quadro regulatório onde a confiança, a explicabilidade e a governança são requisitos centrais. As organizações que utilizam IA terão de implementar sistemas auditados, documentados e supervisionados de forma contínua, integrando a gestão de risco no ciclo de vida dos seus modelos. No contexto específico dos 'deepfakes', o regulamento introduz uma definição jurídica de 'falsificações profundas' e estabelece obrigações de transparência rigorosas.

Prestadores de sistemas de IA que geram conteúdo sintético devem garantir que os resultados sejam marcados como gerados ou manipulados artificialmente.

Da mesma forma, quem implementa um 'deepfake' deve revelar a sua natureza artificial.

O incumprimento destas regras pode resultar em coimas severas, que podem chegar a 15 milhões de euros ou 3% do volume de negócios anual mundial da empresa.

Esta abordagem regulatória reflete uma preocupação crescente com os aspetos éticos e os riscos associados à IA, impulsionando a consolidação de funções como o Chief AI Officer (CAIO) e a necessidade de quantificar o impacto financeiro dos riscos algorítmicos.