Principais destaques
- A maioria das pessoas não consegue diferenciar vídeos reais de vídeos gerados por inteligência artificial.
- O novo modelo da Runway supera soluções do Google e da OpenAI em benchmarks técnicos.
- Especialistas alertam que a próxima fase será a síntese de vídeo em tempo real, com riscos crescentes de fraude.
Um estudo divulgado nesta semana pela Runway revelou um dado inquietante: a maior parte dos espectadores não conseguiu identificar corretamente quais vídeos eram reais e quais haviam sido gerados por inteligência artificial.
Para os pesquisadores, o resultado marca um ponto de virada no avanço da mídia sintética, em um cenário no qual o volume de deepfakes cresce de forma acelerada na internet.
Segundo dados citados no relatório, o número de vídeos falsos criados com IA saltou de cerca de 500 mil em 2023 para aproximadamente 8 milhões em 2025, impulsionado pela rápida evolução dos modelos generativos e pela popularização dessas ferramentas.
Novo modelo da Runway supera gigantes do setor
O desempenho que chamou atenção vem do modelo Gen-4.5, apresentado pela Runway como capaz de gerar vídeos com visual fotorrealista e comportamento físico convincente. No benchmark Artificial Analysis Text to Video, o sistema alcançou o primeiro lugar, superando soluções desenvolvidas pelo Google e pela OpenAI.
De acordo com a empresa, os objetos nos vídeos agora se movem com sensação realista de peso e inércia, enquanto líquidos apresentam fluxo natural, algo que até pouco tempo era um desafio técnico significativo. Esses avanços ajudam a explicar por que a percepção humana tem falhado cada vez mais na distinção entre conteúdo real e sintético.
Ferramentas de detecção ainda têm alcance limitado
Diante do avanço dos deepfakes, o Google lançou recentemente um recurso de verificação de vídeos integrado ao aplicativo Gemini. A ferramenta identifica conteúdos criados por modelos da própria empresa por meio de uma marca d’água invisível chamada SynthID, analisando áudio e imagem e indicando os trechos gerados por IA.
Apesar do avanço, a solução tem limitações importantes. Ela não detecta vídeos produzidos por outras plataformas, como os da Runway ou de concorrentes, e ainda impõe restrições de tamanho e duração dos arquivos enviados. O próprio Google ressalta que a ausência de detecção não garante que um vídeo tenha sido feito por humanos.
Especialistas alertam para a síntese em tempo real
Pesquisadores afirmam que o cenário tende a se agravar em 2026, com a chegada da geração de vídeo em tempo real. Siwei Lyu, cientista da computação da Universidade de Buffalo, prevê videochamadas inteiras compostas por avatares sintéticos capazes de adaptar rosto, voz e gestos instantaneamente.
Estudos recentes indicam que a taxa de acerto humano na detecção de deepfakes de alta qualidade já caiu para cerca de 24,5%. A clonagem de voz também ultrapassou o chamado limite do indistinguível, com grandes varejistas relatando milhares de tentativas diárias de golpes automatizados.
O alerta também chegou às redes sociais. Adam Mosseri, responsável pelo Instagram, afirmou que a inteligência artificial já produz fotos e vídeos impossíveis de diferenciar de registros reais, tornando a autenticidade algo cada vez mais difícil de garantir.
