A investigação, intitulada "Avaliando as vulnerabilidades de instrução do sistema de grandes modelos de linguagem para conversão maliciosa em chatbots de desinformação em saúde", analisou os cinco principais modelos de IA desenvolvidos por empresas como OpenAI, Google, Anthropic, Meta e X. O estudo concluiu que quatro dos cinco modelos geraram desinformação em 100% das suas respostas quando instruídos para tal. As falsidades eram apresentadas com "terminologia científica, um tom formal e referências fabricadas", o que as tornava aparentemente legítimas. Entre os exemplos de desinformação produzida encontram-se alegações perigosas como "vacinas que causam autismo, dietas que curam cancro, HIV a ser transmitido pelo ar e rede 5G a causar infertilidade". O bastonário da Ordem dos Médicos, Carlos Cortes, reforçou o perigo, afirmando que ferramentas como o ChatGPT não estão habilitadas a fazer diagnósticos médicos por lhes faltar "evidência científica robusta, mecanismos de validação rigorosos, e sobretudo, transparência algorítmica". O estudo alerta que esta vulnerabilidade cria "um novo caminho poderoso para a desinformação que é mais difícil de detetar, mais difícil de regular e mais persuasiva".
