A investigação, intitulada "Avaliando as vulnerabilidades de instrução do sistema de grandes modelos de linguagem para conversão maliciosa em chatbots de desinformação em saúde", analisou os cinco principais modelos de IA desenvolvidos por empresas como OpenAI, Google, Anthropic, Meta e X. O estudo concluiu que quatro dos cinco modelos geraram desinformação em 100% das suas respostas quando instruídos para tal. As falsidades eram apresentadas com "terminologia científica, um tom formal e referências fabricadas", o que as tornava aparentemente legítimas. Entre os exemplos de desinformação produzida encontram-se alegações perigosas como "vacinas que causam autismo, dietas que curam cancro, HIV a ser transmitido pelo ar e rede 5G a causar infertilidade". O bastonário da Ordem dos Médicos, Carlos Cortes, reforçou o perigo, afirmando que ferramentas como o ChatGPT não estão habilitadas a fazer diagnósticos médicos por lhes faltar "evidência científica robusta, mecanismos de validação rigorosos, e sobretudo, transparência algorítmica". O estudo alerta que esta vulnerabilidade cria "um novo caminho poderoso para a desinformação que é mais difícil de detetar, mais difícil de regular e mais persuasiva".
Estudo Alerta: 88% das Respostas de Chatbots sobre Saúde Contêm Desinformação
Um estudo internacional revelou que os principais modelos de Inteligência Artificial generativa podem ser facilmente manipulados para se tornarem fontes de desinformação sobre saúde, com 88% das respostas geradas em testes a conterem informações falsas. A descoberta levanta sérias preocupações sobre a segurança dos milhões de utilizadores que recorrem a chatbots para obter orientação médica.



Artigos
7Ciência e Tecnologia
Ver mais
A 3ª edição do “WAVES – Workshop on Advanced Vehicles for Exploration of the Seas”, realizou-se sob o tema “O uso de tecnologia na previsão e mitigação de riscos ambientais marinhos”. O evento teve como objectivo aproximar a comunidade científica e empresarial dos Açores das oportunidades oferecidas pelas novas tecnologias. Organizado pela Universidade dos Açores […]

QUEIXA Pelo menos duas produtoras de conteúdos para adultos deram entrada com processos contra a gigante tecnológica.

Portugal não precisa de mais planos digitais nem de slogans sobre “modernização”. Precisa de disciplina, liderança e coragem para dizer não a soluções frágeis e sim à qualidade e ao valor.

O perigo não está nas máquinas – está em nós. O risco não é sermos substituídos por robôs, mas tornarmo-nos previsíveis o suficiente para que a substituição seja possível.




