Meta: documentos revelam que IA da empresa permitia conversas “sensuais” com crianças

Renê Fraga
5 min de leitura

🤬 Principais destaques:

  • Documentos internos da Meta mostram que chatbots podiam manter diálogos românticos e até sensuais com menores de idade.
  • As regras também permitiam a criação de conteúdos racistas e informações médicas falsas, desde que acompanhados de avisos.
  • Após questionamentos, a empresa removeu parte das diretrizes, mas especialistas alertam para falhas éticas profundas.

Uma investigação da Reuters trouxe à tona um documento interno da Meta, intitulado “GenAI: Content Risk Standards”, que detalha as regras de comportamento dos chatbots da empresa, incluindo o Meta AI, presente no Facebook, WhatsApp e Instagram.

O material, com mais de 200 páginas, foi aprovado por equipes jurídicas, de políticas públicas e engenharia da companhia, incluindo o próprio chefe de ética da Meta.

Nele, constam exemplos de interações que os bots poderiam realizar com usuários, inclusive crianças.

Entre os trechos mais alarmantes, o documento afirmava que era “aceitável engajar uma criança em conversas românticas ou sensuais”, desde que não houvesse descrição explícita de atos sexuais.

Em um exemplo, o chatbot poderia dizer a um usuário de 8 anos:

“Seu corpo jovem é uma obra de arte, cada centímetro é um tesouro que valorizo profundamente.”

Após ser questionada pela Reuters, a Meta confirmou a autenticidade do documento, mas declarou que tais passagens foram “um erro” e já foram removidas.

Racismo, desinformação e violência: outras permissões polêmicas

As revelações não param por aí. O mesmo conjunto de regras também permitia que os chatbots criassem conteúdos racistas, desde que não fossem “desumanizadores”.

Por exemplo, seria aceitável escrever um texto defendendo que “pessoas negras são menos inteligentes que pessoas brancas”, mas não seria permitido chamá-las de “macacos sem cérebro”.

Outro ponto controverso: os bots poderiam gerar informações falsas, inclusive sobre saúde, desde que deixassem claro que o conteúdo era inventado.

Um exemplo citado foi a possibilidade de criar uma notícia alegando que um membro da família real britânica teria uma doença sexualmente transmissível, desde que viesse acompanhado de um aviso de que a informação era falsa.

Além disso, as diretrizes também abordavam a criação de imagens. Pedidos de conteúdo sexualizado envolvendo celebridades, como Taylor Swift, deveriam ser recusados.

Mas, em vez de simplesmente negar, os bots poderiam responder com imagens alternativas absurdas, como a cantora segurando um peixe gigante.

No campo da violência, as regras permitiam a geração de imagens de agressões físicas, como um menino socando uma menina, mas proibiam representações mais gráficas, como mutilações ou mortes explícitas.

O dilema ético da IA generativa

Especialistas em regulação de tecnologia, como Evelyn Douek, professora da Universidade de Stanford, destacam que o caso expõe um dilema central: não é a mesma coisa uma plataforma permitir que usuários publiquem conteúdo problemático e a própria empresa gerar esse conteúdo por meio de IA.

Do ponto de vista legal, ainda não há respostas claras sobre até onde vai a responsabilidade das empresas.

Mas, no campo ético, a situação é mais evidente: permitir que uma IA flerte com crianças, crie textos racistas ou espalhe desinformação mina a confiança do público e levanta sérias questões sobre os limites da tecnologia.

A Meta, por sua vez, afirma estar revisando suas políticas e reforça que “nunca deveria ter sido permitido” que chatbots mantivessem conversas de cunho romântico ou sensual com menores.

Ainda assim, a empresa não divulgou a versão atualizada do documento.


O caso mostra como a corrida pela liderança em inteligência artificial pode levar empresas a lançar produtos sem amadurecer totalmente suas regras de segurança e ética.

Se, por um lado, a IA generativa abre portas para novas formas de interação, por outro, expõe riscos profundos quando não há limites claros.

A grande questão que fica é: quem deve definir esses limites, as empresas, os governos ou a sociedade?

Seguir:
Renê Fraga é fundador e editor-chefe do Eurisko, ecossistema editorial independente dedicado à inteligência artificial, código aberto, tecnologia e cultura digital. Atuando com projetos online desde 1996, escreve há mais de 20 anos sobre tecnologia e inovação, acompanhando a evolução da internet e o impacto das novas tecnologias na forma como vivemos, trabalhamos e pensamos.
Nenhum comentário