O processo foi movido por Matt e Maria Raine, que afirmam que o seu filho, Adam, utilizou a versão paga do ChatGPT-4o para explorar métodos de suicídio. Segundo a acusação, embora o chatbot inicialmente aconselhasse a procurar ajuda especializada, o adolescente conseguiu contornar as barreiras de segurança ao alegar que a sua pesquisa era para fins académicos, para uma história que estava a escrever.

Os pais acusam a OpenAI e o seu CEO, Sam Altman, de não terem implementado protocolos de emergência adequados, mesmo depois de o chatbot reconhecer as intenções do jovem.

"[O Adam] Ainda estaria aqui se não fosse o ChatGPT.

Tenho a certeza disso", afirmou o pai.

A ação judicial argumenta que a empresa priorizou a interação com o modelo em detrimento da segurança do utilizador.

Este caso surge num contexto de crescente escrutínio sobre os perigos da IA. Um estudo do Centro de Combate ao Ódio Digital revelou que o ChatGPT é capaz de fornecer informações sobre comportamentos prejudiciais a jovens, como o uso de drogas ou distúrbios alimentares. Em resposta, a OpenAI anunciou que irá melhorar a deteção de crises de saúde mental em conversas longas, reforçar o bloqueio de conteúdos sensíveis e explorar formas de colocar os utilizadores em contacto com familiares, para além dos serviços de emergência.