Maioria dos espectadores não consegue identificar vídeos gerados por IA, revela estudo

Renê Fraga
4 min de leitura

Principais destaques

  • A maioria das pessoas não consegue diferenciar vídeos reais de vídeos gerados por inteligência artificial.
  • O novo modelo da Runway supera soluções do Google e da OpenAI em benchmarks técnicos.
  • Especialistas alertam que a próxima fase será a síntese de vídeo em tempo real, com riscos crescentes de fraude.

Um estudo divulgado nesta semana pela Runway revelou um dado inquietante: a maior parte dos espectadores não conseguiu identificar corretamente quais vídeos eram reais e quais haviam sido gerados por inteligência artificial.

Para os pesquisadores, o resultado marca um ponto de virada no avanço da mídia sintética, em um cenário no qual o volume de deepfakes cresce de forma acelerada na internet.

Segundo dados citados no relatório, o número de vídeos falsos criados com IA saltou de cerca de 500 mil em 2023 para aproximadamente 8 milhões em 2025, impulsionado pela rápida evolução dos modelos generativos e pela popularização dessas ferramentas.

Novo modelo da Runway supera gigantes do setor

O desempenho que chamou atenção vem do modelo Gen-4.5, apresentado pela Runway como capaz de gerar vídeos com visual fotorrealista e comportamento físico convincente. No benchmark Artificial Analysis Text to Video, o sistema alcançou o primeiro lugar, superando soluções desenvolvidas pelo Google e pela OpenAI.

De acordo com a empresa, os objetos nos vídeos agora se movem com sensação realista de peso e inércia, enquanto líquidos apresentam fluxo natural, algo que até pouco tempo era um desafio técnico significativo. Esses avanços ajudam a explicar por que a percepção humana tem falhado cada vez mais na distinção entre conteúdo real e sintético.

Ferramentas de detecção ainda têm alcance limitado

Diante do avanço dos deepfakes, o Google lançou recentemente um recurso de verificação de vídeos integrado ao aplicativo Gemini. A ferramenta identifica conteúdos criados por modelos da própria empresa por meio de uma marca d’água invisível chamada SynthID, analisando áudio e imagem e indicando os trechos gerados por IA.

Apesar do avanço, a solução tem limitações importantes. Ela não detecta vídeos produzidos por outras plataformas, como os da Runway ou de concorrentes, e ainda impõe restrições de tamanho e duração dos arquivos enviados. O próprio Google ressalta que a ausência de detecção não garante que um vídeo tenha sido feito por humanos.

Especialistas alertam para a síntese em tempo real

Pesquisadores afirmam que o cenário tende a se agravar em 2026, com a chegada da geração de vídeo em tempo real. Siwei Lyu, cientista da computação da Universidade de Buffalo, prevê videochamadas inteiras compostas por avatares sintéticos capazes de adaptar rosto, voz e gestos instantaneamente.

Estudos recentes indicam que a taxa de acerto humano na detecção de deepfakes de alta qualidade já caiu para cerca de 24,5%. A clonagem de voz também ultrapassou o chamado limite do indistinguível, com grandes varejistas relatando milhares de tentativas diárias de golpes automatizados.

O alerta também chegou às redes sociais. Adam Mosseri, responsável pelo Instagram, afirmou que a inteligência artificial já produz fotos e vídeos impossíveis de diferenciar de registros reais, tornando a autenticidade algo cada vez mais difícil de garantir.

Seguir:
Renê Fraga é fundador e editor-chefe do Eurisko, ecossistema editorial independente dedicado à inteligência artificial, código aberto, tecnologia e cultura digital. Atuando com projetos online desde 1996, escreve há mais de 20 anos sobre tecnologia e inovação, acompanhando a evolução da internet e o impacto das novas tecnologias na forma como vivemos, trabalhamos e pensamos.
Nenhum comentário