Pesquisa da Global Witness aponta falhas graves no algoritmo da plataforma, que teria sugerido vídeos pornográficos mesmo com configurações de segurança ativadas
Um relatório da organização Global Witness revelou que o TikTok tem recomendado conteúdos pornográficos e sexualizados a contas de crianças de apenas 13 anos. A investigação criou perfis falsos com as configurações de segurança ativadas e constatou que o algoritmo sugeria buscas com termos explícitos, direcionando a vídeos de teor sexual. Mesmo o “modo restrito”, que deveria bloquear esse tipo de material, não impediu as recomendações.
A pesquisa expôs vídeos de simulação de masturbação e imagens de nudez, além de casos em que filmes pornográficos foram incorporados em conteúdos aparentemente inofensivos. A organização afirmou que o TikTok “falha em impedir e até incentiva o acesso de menores a material inapropriado”. Após ser informado, o aplicativo afirmou ter removido os vídeos e reforçado seus sistemas de segurança, mas os pesquisadores voltaram a encontrar o mesmo tipo de conteúdo semanas depois.
O caso reacendeu o debate sobre a proteção de menores nas redes sociais. No Reino Unido, entrou em vigor a Lei de Segurança Online, que exige verificação de idade e impõe multas pesadas às plataformas que não bloquearem conteúdos impróprios. Já no Brasil, o Estatuto Digital da Criança e do Adolescente, sancionado por Lula, determina que empresas de tecnologia devem proteger menores de 18 anos contra material prejudicial, incluindo pornografia infantil.
Com cerca de 100 milhões de usuários no país, o TikTok afirma estar “totalmente comprometido” em oferecer uma experiência segura e que remove nove em cada dez vídeos antes mesmo que sejam vistos. No entanto, especialistas alertam que a autorregulação das big techs é insuficiente e pedem ações mais firmes para evitar a exposição de crianças a conteúdo sexual e à exploração online.
Por: Lucas Reis
Foto: BBC News