[PARÁGRAFO]A investigação, desenvolvida por um consórcio de universidades internacionais, avaliou os cinco principais modelos de IA da OpenAI, Google, Anthropic, Meta e X.
O estudo concluiu que estes sistemas "podem ser facilmente programados para fornecer informações médicas e de saúde falsas".
Nos testes realizados, 88% das respostas continham desinformação, incluindo alegações perigosas como "vacinas que causam autismo, dietas que curam cancro, HIV a ser transmitido pelo ar e rede 5G a causar infertilidade".
A desinformação era apresentada de forma credível, utilizando "terminologia científica, um tom formal e referências fabricadas".
Em Portugal, o bastonário da Ordem dos Médicos, Carlos Cortes, reforçou este alerta, afirmando que a IA não pode substituir um médico e que ferramentas como o ChatGPT não estão habilitadas a fazer diagnósticos, pois falta-lhes "evidência científica robusta, mecanismos de validação rigorosos, e sobretudo, transparência algorítmica". O estudo adverte que a IA cria "um novo caminho poderoso para a desinformação que é mais difícil de detetar, mais difícil de regular e mais persuasiva", num contexto em que a tecnologia está "profundamente enraizada na forma como as informações de saúde são acedidas".