A investigação, desenvolvida em colaboração com instituições como a Harvard Medical School e a University of South Australia, avaliou os cinco principais modelos de IA da OpenAI, Google, Anthropic, Meta e X. O estudo concluiu que estes modelos "podem ser facilmente programados para fornecer informações médicas e de saúde falsas". As respostas falsas, que constituíram 88% do total, apresentavam frequentemente terminologia científica, um tom formal e referências fabricadas para parecerem legítimas. A desinformação gerada incluía alegações perigosas como "vacinas que causam autismo, dietas que curam cancro, HIV a ser transmitido pelo ar e rede 5G a causar infertilidade". Quatro dos cinco modelos avaliados produziram desinformação em 100% das suas respostas. O bastonário da Ordem dos Médicos, Carlos Cortes, reforçou o alerta, afirmando que ferramentas como o ChatGPT não estão habilitadas a fazer diagnósticos médicos, pois carecem de "evidência científica robusta, mecanismos de validação rigorosos, e sobretudo, transparência algorítmica". Os especialistas alertam que a IA está profundamente enraizada no acesso à informação de saúde, sendo crucial reconhecer a sua vulnerabilidade à manipulação.
