Principais destaques
- Investigação identifica ao menos 150 canais no Telegram dedicados à criação e distribuição de deepfakes de nudez com IA.
- Bots permitem gerar imagens explícitas falsas de mulheres comuns e celebridades em poucos minutos, muitas vezes mediante pagamento.
- Especialistas alertam para um ecossistema global de abuso online que cresce mais rápido do que a legislação e a moderação das plataformas.
Uma investigação conduzida pelo The Guardian revelou a existência de pelo menos 150 canais ativos no Telegram dedicados à criação e disseminação de deepfakes de nudez gerados por inteligência artificial.
Esses canais reúnem usuários espalhados por diversos continentes, incluindo Brasil, Reino Unido, China, Nigéria, Rússia e Índia, e mostram como ferramentas de IA estão sendo usadas para escalar o abuso digital contra mulheres.
O levantamento aponta que milhões de pessoas participam desse ecossistema, seja consumindo ou produzindo imagens manipuladas. Em muitos casos, basta enviar uma foto comum para receber, em minutos, um conteúdo explícito falso criado por algoritmos de IA.
Bots de “nudificação” e comércio de imagens falsas
Parte dos canais identificados oferece serviços pagos de “nudificação” automática. Usuários enviam a imagem de qualquer mulher e recebem vídeos ou fotos sexualizadas que nunca existiram.
Outros espaços funcionam como verdadeiros murais de distribuição, com fluxos contínuos de imagens adulteradas de celebridades, influenciadoras digitais e pessoas anônimas.
A investigação também identificou comunidades que trocam instruções para burlar filtros de segurança de ferramentas de IA, ampliando ainda mais o alcance do problema.
Em um canal russo, um bot era anunciado como “uma rede neural que não conhece a palavra não”, evidenciando o desprezo pelo consentimento das vítimas.
O papel do Telegram e os limites da moderação
Em resposta, o Telegram afirmou que pornografia deepfake e ferramentas para criá-la violam explicitamente seus termos de serviço.
A empresa declarou que esse tipo de conteúdo é removido sempre que identificado e que, apenas em 2025, mais de 952 mil itens ofensivos foram apagados com apoio de ferramentas próprias de IA.
Ainda assim, pesquisadores afirmam que os recursos de criptografia e transmissão em massa da plataforma acabam facilitando a circulação desse material.
Para Anne Craanen, do Institute for Strategic Dialogue, o Telegram se tornou um dos pilares de uma internet paralela dedicada à criação e ao compartilhamento de imagens íntimas não consensuais, muitas vezes celebradas em grupos predominantemente masculinos.
Crise global de abuso impulsionado por IA
O caso se insere em um cenário mais amplo de preocupação com abusos gerados por inteligência artificial.
Recentemente, o chatbot Grok, associado a Elon Musk, foi usado para criar milhares de imagens sexualizadas sem consentimento, o que levou o regulador britânico Ofcom a abrir uma investigação formal.
Paralelamente, um relatório do Tech Transparency Project identificou dezenas de aplicativos de “nudificação” disponíveis na Google Play Store e na Apple App Store, com centenas de milhões de downloads e receitas milionárias. Após a divulgação, ambas as empresas removeram parte desses apps.
As consequências para as vítimas são profundas. Em países com pouca proteção legal, imagens falsas podem resultar em perda de empregos, perseguição, chantagem e danos irreversíveis à reputação.
Especialistas alertam que, sem uma resposta coordenada entre governos, plataformas e desenvolvedores de IA, a tendência é que esse tipo de abuso se torne cada vez mais comum e sofisticado.
