Uma investigação da organização não-governamental Global Witness acusa o algoritmo do TikTok de recomendar ativamente conteúdo pornográfico e sexualizado a utilizadores com 13 anos. As descobertas chocantes revelam falhas sistémicas na moderação e nos sistemas de recomendação da plataforma, mesmo quando os modos de restrição de conteúdo estão ativados. A investigação baseou-se na criação de sete contas no Reino Unido, configuradas como pertencentes a jovens de 13 anos, em telemóveis sem qualquer histórico de utilização. Sem que os investigadores realizassem qualquer pesquisa, o algoritmo da plataforma começou a sugerir termos de busca e conteúdos “altamente sexualizados” na secção “Para Ti”.
Este comportamento ocorreu mesmo com o “modo restrito” ativado, uma funcionalidade que, segundo o TikTok, impede a exposição a “temas adultos ou complexos”.
A Global Witness refere que “os algoritmos de pesquisa do TikTok empurram ativamente os menores para o conteúdo pornográfico”, destacando que não se trata apenas de uma falha de moderação, mas de um “problema com a recomendação de conteúdo algorítmico”.
A organização denunciou ainda que muitas das sugestões eram misóginas.
Em resposta, um porta-voz do TikTok afirmou que a empresa agiu “de imediato para investigar, remover conteúdo que violasse as políticas e lançar melhorias” após ser contactada pela ONG.
Em resumoUma investigação da Global Witness concluiu que o algoritmo do TikTok sugere conteúdo pornográfico e sexualizado a contas de utilizadores com 13 anos, mesmo com as funcionalidades de segurança ativadas. O TikTok declarou ter tomado medidas corretivas após ter sido informado sobre as alegações.