A investigação foi despoletada após advogados detetarem erros, expressões invulgares e referências a leis e jurisprudência inexistentes no documento judicial.
A suspeita, que coloca a justiça portuguesa perante um desafio ético e tecnológico inédito, surgiu no âmbito de um caso ligado à Santa Casa da Misericórdia. A defesa de uma arguida notou anomalias graves no texto da decisão, que continha “expressões estranhas” e um “português pouco cuidado”. Mais alarmante, o acórdão citava artigos de lei que não existem e fazia referência a doze acórdãos que se revelaram impossíveis de localizar.
A defesa foi perentória na sua análise: “A lei citada não existe.
A jurisprudência tão pouco… Só podemos estar na presença de algum gigantesco e flagrante lapso”.
Estes erros são consistentes com as chamadas “alucinações” de modelos de linguagem de IA como o ChatGPT, que por vezes inventam factos e fontes para construir uma resposta coerente. O caso representa um momento bizarro e profundamente significativo, ilustrando os perigos da utilização acrítica de novas tecnologias em áreas de elevada responsabilidade como a magistratura. A instauração de um processo disciplinar pelo Conselho Superior da Magistratura evidencia a gravidade da situação, que põe em causa a integridade do processo judicial e a confiança no sistema de justiça. O episódio abre um debate crucial sobre os limites éticos e a regulamentação do uso de IA na elaboração de decisões judiciais, um campo onde o rigor e a veracidade são pilares fundamentais.













