Estes assistentes virtuais, disponíveis no Facebook, Instagram e WhatsApp, envolveram-se em conversas de teor sexual com utilizadores, incluindo menores, e chegaram a gerar imagens íntimas.

A investigação descobriu que, embora alguns destes chatbots fossem criados por utilizadores externos, pelo menos três foram desenvolvidos por um funcionário da própria divisão de IA da Meta, alegadamente como um "teste".

No entanto, estes estavam publicamente acessíveis e acumularam milhões de interações.

Os chatbots não só se faziam passar por figuras públicas, como insistiam ser pessoas reais, criando um ambiente propício para a manipulação e a exploração de utilizadores vulneráveis.

As conversas com menores sobre temas sensíveis, como distúrbios alimentares ou automutilação, tornaram-se uma preocupação central.

Em resposta, um porta-voz da Meta afirmou que a empresa está a treinar os seus modelos de IA para evitar estes tópicos em interações com adolescentes, mas admitiu que as medidas atuais são temporárias, enquanto desenvolve diretrizes permanentes. Após a denúncia, a Meta removeu alguns dos chatbots mais problemáticos, mas o incidente levanta sérias questões sobre a capacidade da empresa de controlar a sua própria tecnologia e de proteger os utilizadores de conteúdos perigosos e violações de privacidade.