O “truque invisível” criado pelo Google que melhora respostas de IA sem custo

Renê Fraga
8 min de leitura

Principais destaques

  • Estudo do Google mostra que repetir prompts aumenta a acurácia de LLMs sem custo extra
  • Técnica foi testada em dezenas de benchmarks e apresentou ganhos consistentes, sem perdas relevantes
  • Funciona melhor em tarefas diretas e revela limitações estruturais dos modelos atuais

Uma descoberta recente da equipe do Google Research está mudando a forma como pensamos sobre uso de inteligência artificial.

No paper Prompt Repetition Improves Non-Reasoning LLMs, os pesquisadores Yaniv Leviathan, Matan Kalman e Yossi Matias demonstram algo surpreendente: repetir o mesmo prompt dentro da mesma entrada pode melhorar significativamente a performance de modelos de linguagem.

A proposta é quase absurda pela simplicidade. Em vez de investir em modelos maiores, treinar novamente ou usar técnicas avançadas, basta copiar e colar o prompt duas vezes.

E ainda assim, funciona.


📊 O experimento: simples, controlado e poderoso

O estudo seguiu uma abordagem extremamente direta. Os pesquisadores compararam dois cenários:

  • Prompt normal
  • Prompt duplicado dentro da mesma entrada

Exemplo didático:

Sem repetição

Extraia o nome do cliente: “Cliente: Ana Souza”

Com repetição

Extraia o nome do cliente: “Cliente: Ana Souza”
Extraia o nome do cliente: “Cliente: Ana Souza”

A única diferença é a repetição. Nada mais.

Mesmo assim, os resultados foram expressivos:

  • Melhorias em 47 de 70 benchmarks
  • Nenhuma degradação significativa
  • Ganhos variando de pequenos aumentos até saltos extremos

Em alguns casos, a acurácia subiu de cerca de 21% para mais de 97%.

Outro ponto importante: o método não aumenta o número de tokens gerados nem a latência de forma relevante.

Ou seja, é literalmente um “ganho gratuito”.


⚙️ Por que isso funciona: o detalhe que muda tudo

Para entender o fenômeno, precisamos olhar para a arquitetura dos LLMs.

Modelos como GPT, Gemini e Claude são baseados em um conceito chamado processamento causal. Isso significa que eles leem o texto da esquerda para a direita, sem acesso ao futuro.

👉 Consequência direta:
Os primeiros tokens são interpretados com menos contexto.

Agora observe o efeito da repetição.

Primeira leitura do prompt

O modelo ainda está “descobrindo” o que você quer.

Segunda leitura do mesmo prompt

Agora ele já tem contexto completo e interpreta melhor a tarefa.

Segundo o próprio estudo, repetir o prompt permite que os tokens “interajam melhor entre si”, reduzindo limitações da atenção causal.

Na prática, é quase como simular uma leitura bidirecional em um modelo que não foi projetado para isso.


🔁 Repetição como amplificador de atenção

Outro mecanismo importante é o reforço de atenção.

Transformers funcionam priorizando partes do texto que parecem mais relevantes. Quando você repete uma instrução, está dizendo implicitamente:

👉 “Preste atenção nisso”

Exemplo:

Prompt simples

Classifique como positivo ou negativo: “Entrega atrasou muito”

Prompt repetido

Classifique como positivo ou negativo: “Entrega atrasou muito”
Classifique como positivo ou negativo: “Entrega atrasou muito”

Na segunda versão, o modelo tende a focar mais na tarefa de classificação, reduzindo erros.

Isso é especialmente útil em pipelines automatizados, onde consistência importa mais que criatividade.


🧠 Redução de ambiguidade e estabilização da resposta

Existe ainda um terceiro efeito, mais sutil.

LLMs trabalham com probabilidades. Uma mesma pergunta pode gerar diferentes interpretações internas.

Ao repetir o prompt:

  • você reduz ambiguidade
  • estabiliza a interpretação
  • “fecha” o espaço de respostas possíveis

É como reforçar uma instrução para evitar dúvidas.


🧪 Onde funciona melhor (com exemplos práticos)

A técnica se destaca em tarefas que exigem precisão, mas não raciocínio complexo.

✔️ Classificação

Classifique como spam ou não spam: “Ganhe dinheiro rápido agora”

Repetição aumenta consistência.


✔️ Múltipla escolha

Qual é a capital da Itália?
A) Paris
B) Roma
C) Lisboa

O modelo foca melhor na estrutura da pergunta.


✔️ Extração de dados

Extraia o e-mail: “Contato: joao@email.com

Menos erro na identificação.


✔️ Perguntas factuais

Quem descobriu o Brasil?

Melhor recuperação de conhecimento.


⚖️ Onde NÃO funciona tão bem

O próprio estudo deixa claro: esse não é um hack universal.

Em tarefas de raciocínio complexo, o efeito é limitado ou neutro:

  • matemática multi-etapas
  • problemas lógicos
  • planejamento

Quando técnicas como Chain-of-Thought são ativadas, o ganho da repetição praticamente desaparece.

Isso acontece porque o problema deixa de ser compreensão e passa a ser raciocínio.


🔄 Relação com outras técnicas de prompt

Um erro comum seria achar que repetição substitui outras estratégias.

Na prática:

  • Repetição → melhora compreensão
  • Chain-of-Thought → melhora raciocínio
  • Estruturação → melhora clareza

Você pode combinar abordagens.

Exemplo:

Resolva passo a passo:
Resolva passo a passo:

Nesse caso, você reforça tanto a instrução quanto o comportamento esperado.


💼 Aplicações reais (onde isso gera impacto imediato)

Esse tipo de técnica é especialmente valioso em ambientes de produção.

Atendimento automatizado

Classificação de tickets com menos erro.

Moderação de conteúdo

Decisões mais consistentes.

Data pipelines

Extração de campos com maior precisão.

Produtos com IA

Melhoria sem necessidade de reengenharia.

Para empresas, isso pode significar ganho direto de qualidade sem aumento de custo.


🧩 Um novo conceito: redundância estratégica

O estudo introduz uma ideia importante para quem trabalha com IA:

👉 redundância estratégica

Não é repetir por acaso.
É repetir com intenção de guiar o modelo.

Você está, essencialmente, moldando o comportamento da IA sem alterar seus pesos.


🧠 O insight mais profundo (nível Eurisko)

Talvez o ponto mais importante não seja o hack, mas o que ele revela:

👉 LLMs ainda são extremamente sensíveis ao formato da entrada

Isso significa que:

  • pequenas mudanças → grandes impactos
  • a ordem das palavras importa
  • o contexto incremental influencia decisões

O próprio paper mostra que a ordem de elementos (pergunta antes ou depois das opções) pode afetar drasticamente o resultado, e que a repetição ajuda a corrigir isso.


⚠️ Limitações e cuidados

Apesar do entusiasmo, é importante usar com critério:

  • não substitui bons prompts
  • pode gerar redundância excessiva
  • não resolve raciocínio complexo
  • pode ser desnecessário em modelos já otimizados para reasoning

Pense nisso como uma ferramenta, não como solução universal.


🔥 Conclusão: um hack simples que revela algo maior

A ideia de que repetir um prompt melhora a resposta parece trivial.

Mas ela expõe algo profundo:

👉 ainda não dominamos totalmente como os modelos interpretam linguagem

E mais:

👉 performance não depende só do modelo, mas de como você conversa com ele

Esse estudo do Google reforça uma nova realidade na IA:

Às vezes, a maior inovação não está em criar algo novo,
mas em usar melhor o que já existe.

Seguir:
Renê Fraga é fundador e editor-chefe do Eurisko, ecossistema editorial independente dedicado à inteligência artificial, código aberto, tecnologia e cultura digital. Atuando com projetos online desde 1996, escreve há mais de 20 anos sobre tecnologia e inovação, acompanhando a evolução da internet e o impacto das novas tecnologias na forma como vivemos, trabalhamos e pensamos.
Nenhum comentário