Principais destaques:
- Chatbots populares erraram em até 95% das tentativas ao analisar vídeos gerados por IA sem marca d’água.
- Mesmo ferramentas da mesma empresa não reconhecem conteúdos criados por seus próprios sistemas.
- Falhas levantam alertas sérios sobre desinformação em eleições e notícias urgentes.
Um relatório divulgado em janeiro de 2026 pela organização de monitoramento de mídia NewsGuard trouxe um alerta preocupante para quem confia em inteligência artificial como ferramenta de verificação de fatos.
Segundo o estudo, os principais chatbots do mercado simplesmente não conseguem identificar, com confiabilidade, vídeos gerados por IA.
Foram testados sistemas desenvolvidos pela OpenAI, Google e xAI, usando vídeos criados pela ferramenta de texto para vídeo Sora. O resultado expôs uma lacuna crítica na promessa de que a IA pode ajudar a conter a desinformação.
Taxas de erro chamam atenção
Nos testes com vídeos sem marca d’água, o Grok falhou em 95% das análises, enquanto o ChatGPT errou em 92,5% e o Gemini em 78%. Em muitos casos, os sistemas deram respostas seguras e detalhadas, mas completamente incorretas, afirmando que os vídeos eram reais.
O dado mais sensível envolve o ChatGPT. Mesmo sendo um produto da OpenAI, assim como o Sora, o chatbot não conseguiu reconhecer conteúdos criados pela própria tecnologia da empresa.
Um porta-voz da OpenAI admitiu à NewsGuard que o sistema não tem capacidade técnica para identificar se um vídeo foi gerado por IA, mas essa limitação raramente é comunicada de forma clara aos usuários.
Marcas d’água não resolvem o problema
O relatório também mostrou que marcas d’água oferecem proteção limitada. Ferramentas gratuitas de terceiros conseguem removê-las com facilidade, o que permitiu que os pesquisadores enganassem todos os chatbots testados.
Mesmo quando a marca estava presente, o Grok ainda errou em 30% das análises e o ChatGPT em 7,5%. Apenas o Gemini acertou todos os casos com marca d’água, graças ao uso do sistema proprietário SynthID, que funciona apenas para conteúdos gerados pelo próprio Google.
Em exemplos práticos, os chatbots chegaram a validar como autênticos vídeos falsos que mostrariam um agente de imigração dos EUA prendendo uma criança e um funcionário da Delta Air Lines expulsando um passageiro por usar um boné político. Nenhum desses vídeos correspondia a eventos reais.
Risco crescente para a informação pública
Para a NewsGuard, o avanço do realismo em vídeos gerados por IA torna ainda mais perigosa a dependência de chatbots como árbitros da verdade.
Em vez de conter a desinformação, essas ferramentas podem acabar reforçando narrativas falsas, especialmente em momentos críticos como eleições, crises políticas ou acontecimentos de última hora.
O relatório reforça uma mensagem incômoda para o ecossistema de IA: enquanto a tecnologia avança rapidamente na criação de conteúdo, os mecanismos de verificação ainda estão vários passos atrás.
