A legislação estabelece um precedente mundial, posicionando a Europa como líder na governação da IA, embora enfrente um debate complexo entre a inovação e a proteção dos cidadãos.
A nova fase do AI Act, que será aplicada gradualmente até 2027, foca-se nos chamados "Modelos de Inteligência Artificial Geralmente Acessíveis", como o ChatGPT da OpenAI e o Gemini da Google.
Os fornecedores destes sistemas estão agora obrigados a ser transparentes sobre os conteúdos utilizados no treino dos seus modelos, a cumprir a legislação de direitos de autor e a realizar avaliações de risco rigorosas.
Estas análises devem abranger potenciais violações de direitos humanos e perigos sistémicos, como acidentes químicos, biológicos ou nucleares.
Para facilitar a transição, a Comissão Europeia promoveu um código de boas práticas voluntário, ao qual aderiram 25 empresas, incluindo Google, Amazon, IBM, Microsoft e OpenAI.
No entanto, a ausência de nomes como a Meta, que já tinha anunciado a sua recusa, e de empresas chinesas como Alibaba e Baidu, evidencia as divisões no setor.
Elon Musk, através da sua empresa xAI, assinou apenas o capítulo relativo à segurança, abstendo-se dos compromissos sobre direitos de autor e transparência. A iniciativa não foi isenta de críticas; quarenta organizações de artistas e detentores de direitos de autor consideraram o código "uma oportunidade perdida de proporcionar uma proteção significativa dos direitos de propriedade intelectual". A legislação reflete a crescente preocupação de Bruxelas em conter o poder das grandes tecnológicas, mas também suscita receios, nomeadamente dos Estados Unidos, de que uma regulação excessiva possa abrandar o desenvolvimento e a inovação na Europa.