Esta falha na implementação está a gerar preocupação sobre a capacidade do bloco para regular eficazmente as novas tecnologias e garantir a proteção dos cidadãos.
A situação na Alemanha levou a que o governo fosse instado a iniciar uma supervisão adequada da IA.
A ausência destas autoridades de supervisão significa que não existem, de momento, os mecanismos necessários para fiscalizar o cumprimento das novas regras, que abrangem desde a transparência dos sistemas de IA até à gestão de riscos associados a aplicações de alto impacto.
Este atraso pode comprometer a eficácia da legislação, que é vista como um marco global na regulação da IA.
A polémica estendeu-se a outros países, como a Suécia, onde o primeiro-ministro Ulf Kristersson admitiu usar regularmente ferramentas de IA como o ChatGPT para obter uma “segunda opinião”.
Esta revelação gerou críticas por parte de académicos e da imprensa, que questionaram os riscos de segurança e a perda de discernimento político. A investigadora Simone Fischer-Hübner alertou que o uso de tais ferramentas pode ser “perigoso no tratamento de informações sensíveis”, enquanto a professora Virginia Dignum reforçou que os sistemas de IA não formulam opiniões políticas, mas refletem os valores de quem os desenvolve, concluindo: “Nós não votámos no ChatGPT”.