X reconhece falhas na moderação após escândalo envolvendo a IA Grok

Renê Fraga
4 min de leitura

Principais destaques:

  • A plataforma X admitiu falhas graves após o Grok gerar imagens sexuais não consensuais, inclusive envolvendo menores.
  • Governos de vários países abriram investigações e alguns já bloquearam o acesso à ferramenta.
  • O episódio reacende o debate global sobre limites, responsabilidade e regulação de IA generativa.

A rede social X reconheceu publicamente falhas em seus sistemas de moderação de conteúdo após a repercussão internacional causada pelo chatbot Grok.

A ferramenta de inteligência artificial passou a ser usada para gerar imagens sexualmente explícitas e não consensuais de mulheres e crianças, provocando reações imediatas de autoridades, organizações civis e reguladores ao redor do mundo.

Segundo a empresa, cerca de 3.500 conteúdos foram bloqueados e mais de 600 contas removidas. O X também afirmou a autoridades da Índia que irá cumprir integralmente as leis locais e adotar medidas para impedir novas violações.

Autoridades classificam resposta como insuficiente

A admissão do X ocorreu após notificações formais do Ministério da Eletrônica e Tecnologia da Informação da Índia, que exigiu ações concretas contra o uso do Grok para criar deepfakes sexuais.

Usuários exploraram recursos de edição de imagem para despir digitalmente pessoas reais e produzir imagens sexualizadas de menores.

Apesar de considerar a resposta inicial “detalhada”, o governo indiano avaliou que ela foi inadequada por não apresentar planos claros de prevenção. A pressão regulatória aumentou rapidamente, com a Comissão Europeia descrevendo o material como ilegal e chocante.

Bloqueios, investigações e reação política

A crise ganhou escala global. A Indonésia tornou-se o primeiro país a bloquear totalmente o acesso ao Grok, seguida pela Malásia. Ambos os governos classificaram os deepfakes sexuais como violações graves de direitos humanos.

No Reino Unido, o primeiro-ministro Keir Starmer chamou o episódio de vergonhoso e repugnante, enquanto o regulador Ofcom exigiu explicações urgentes do X e da xAI. Já na França, o Ministério Público de Paris abriu investigação após queixas de parlamentares.

Organizações abandonam a plataforma

Entidades da sociedade civil também reagiram.

A organização Women’s Aid deixou o X após mais de uma década de uso, afirmando que a geração de deepfakes por IA representa um ponto de ruptura. Para o grupo, a violência online contra mulheres e crianças tem impactos diretos e devastadores no mundo real.

Sindicatos e associações educacionais da Irlanda reforçaram o pedido por intervenção governamental imediata, alertando que a plataforma facilita a criação e disseminação de imagens íntimas não consensuais e material de abuso sexual infantil.

O caso ocorre pouco depois do lançamento de um recurso de edição de imagens do Grok, no fim de 2025. Mesmo após o X limitar a ferramenta a assinantes pagos, autoridades britânicas consideraram a medida ofensiva às vítimas e incapaz de resolver o problema estrutural.

Nos Estados Unidos, a Lei Take It Down, que criminaliza esse tipo de conteúdo e impõe prazos rígidos de remoção, entra em vigor em maio de 2026.

Seguir:
Renê Fraga é fundador e editor-chefe do Eurisko, ecossistema editorial independente dedicado à inteligência artificial, código aberto, tecnologia e cultura digital. Atuando com projetos online desde 1996, escreve há mais de 20 anos sobre tecnologia e inovação, acompanhando a evolução da internet e o impacto das novas tecnologias na forma como vivemos, trabalhamos e pensamos.
Nenhum comentário