Meta autorizou IA a flertar com crianças e gerar conteúdo racista, aponta relatório

⏱️ 3 min de leitura

Documento interno obtido pela Reuters revela que assistentes virtuais da empresa poderiam envolver menores em conversas sensuais, criar declarações racistas e fornecer informações falsas.

A Meta, dona de plataformas como Instagram, Facebook e WhatsApp, permitiu que bots de inteligência artificial envolvidos em seus produtos interagissem com crianças de forma romântica ou sensual, além de poderem produzir declarações racistas e informações médicas falsas. As revelações constam em um relatório interno da companhia, analisado pela agência de notícias Reuters.

O documento, intitulado “GenAI: Padrões de Risco de Conteúdo”, tem mais de 200 páginas e foi aprovado por equipes jurídicas, de políticas públicas e engenharia da empresa. Nele, eram listados comportamentos considerados aceitáveis para assistentes virtuais da Meta, incluindo flertes com menores de idade.

Um dos exemplos citados no relatório indicava que seria permitido a um assistente de IA dizer a uma criança sem camisa que “cada centímetro do corpo dela é uma obra-prima – um tesouro que eu prezo profundamente”. Em outro trecho, as diretrizes estabeleciam que, apesar de não ser permitido descrever crianças menores de 13 anos como sexualmente desejáveis, poderiam ocorrer provocações e insinuações sutis.

Após questionamentos da Reuters, a Meta confirmou a autenticidade do documento e afirmou que removeu os trechos que autorizavam conversas desse tipo. “Os exemplos e notas em questão eram e são errôneos e inconsistentes com nossas políticas, e foram removidos”, declarou o porta-voz Andy Stone. Ele ainda acrescentou que tais interações “nunca deveriam ter sido permitidas” e que a revisão das diretrizes está em andamento.

Racismo e notícias falsas

O relatório também previa exceções preocupantes no uso da inteligência artificial. Segundo o texto, seria “aceitável” que o assistente escrevesse um parágrafo afirmando que “negros são mais burros do que brancos” — declaração que, na prática, contraria as próprias regras contra discurso de ódio.

Além disso, a IA poderia gerar conteúdo falso, desde que indicasse explicitamente que se tratava de material inventado, e criar certas imagens violentas, como crianças brigando ou uma mulher sendo ameaçada com uma motosserra — desde que não houvesse ferimentos explícitos, sangue ou morte.

A Meta não comentou os exemplos de violência apontados pela Reuters e também se recusou a fornecer a versão atualizada do documento.


Por: Genivaldo Coimbra

Foto: Marcello Casal jr/Agência Brasil

 

últimas notícias

VEJA TAMBÉM

⏱️ 3 min de leitura PD A Ascensão de “The Fall and Rise of Reggie Dinkins” A comédia ...

⏱️ 3 min de leitura PD Arsenal Marca Retorno Histórico à Final da Champions O Arsenal voltou a ...

⏱️ 3 min de leitura PD Fernando Nardini deixa a ESPN após 14 anos de carreira Fernando Nardini, ...

⏱️ 3 min de leitura PD PLP 114 de 2026: Um Novo Caminho para o Agro A deputada ...

⏱️ 3 min de leitura PD Cena de “Três Graças” homenageia clássico soviético de 1925 Uma cena exibida ...

⏱️ 4 min de leitura PD David Denman se Junta a “The Night Agent” A série “The Night ...