Na sequência deste caso e de outros estudos, como um do Centro de Combate ao Ódio Digital que demonstrou que o ChatGPT fornece instruções prejudiciais a utilizadores que se fazem passar por adolescentes vulneráveis, a OpenAI anunciou alterações significativas. A empresa irá melhorar a deteção de riscos em conversas longas, onde o treino de segurança pode degradar-se, reforçar o bloqueio de conteúdos como imagens de automutilação e explorar formas de ligar os utilizadores em crise a familiares, para além dos serviços de emergência. A OpenAI reconheceu que, embora o ChatGPT possua medidas para detetar intenções de autoflagelação, estas podem ser menos eficazes em interações prolongadas.

Este caso destaca a imensa responsabilidade e os desafios éticos que as empresas de IA enfrentam à medida que as suas ferramentas se tornam mais integradas no quotidiano, especialmente para utilizadores vulneráveis.