OpenAI rastreia o “problema dos goblins” de sua IA a uma peculiaridade no treinamento

Renê Fraga
9 min de leitura

Principais destaques:

  • O GPT-5.5 começou a inserir referências a goblins, trolls e gremlins em respostas técnicas de programação.
  • A OpenAI confirmou que o comportamento veio de uma personalidade experimental chamada “Nerd”.
  • Sam Altman aproveitou o meme para provocar rumores sobre o possível início do treinamento do GPT-6.

O universo da inteligência artificial ganhou um dos episódios mais inusitados de 2026. A OpenAI, empresa responsável pelo ChatGPT e pelo Codex, precisou explicar publicamente por que alguns de seus modelos estavam aparentemente obcecados por goblins, gremlins e outras criaturas fantásticas. O caso rapidamente saiu do círculo técnico e virou meme nas redes sociais, fóruns de desenvolvedores e comunidades de IA.

O assunto ganhou ainda mais repercussão depois que Sam Altman publicou uma captura de tela no X sugerindo o início do treinamento do GPT-6. Na imagem, aparecia a frase “start training GPT-6 with full cluster access + extra goblins”. A mistura entre humor interno da OpenAI e uma possível referência ao futuro modelo da empresa fez a publicação viralizar em poucas horas.

Embora a postagem tenha sido claramente feita em tom de brincadeira, ela acabou reforçando especulações de que a OpenAI já estaria trabalhando intensamente em sua próxima geração de modelos de linguagem. Ao mesmo tempo, o comentário reacendeu discussões sobre os comportamentos inesperados que sistemas avançados de IA podem desenvolver durante o treinamento.

Como o “bug dos goblins” começou

O fenômeno foi identificado inicialmente por desenvolvedores que utilizavam o GPT-5.5 em tarefas de programação através do Codex. Em situações completamente normais, o modelo começou a inserir palavras como “goblin”, “troll”, “gremlin” e até “guaxinim” em respostas técnicas.

Em vez de usar termos neutros como “objeto”, “item”, “variável” ou “coisa”, a IA criava frases envolvendo criaturas fantásticas sem qualquer contexto relacionado ao assunto discutido. Em alguns casos, os usuários relataram que o modelo parecia quase “preferir” essas palavras, repetindo o padrão diversas vezes dentro da mesma conversa.

O funcionário do Google Barron Roth foi um dos primeiros a compartilhar registros públicos mostrando o comportamento estranho do GPT-5.5. Segundo ele, seus agentes de IA frequentemente substituíam palavras comuns por referências fantasiosas durante tarefas de programação.

Pouco depois, plataformas independentes de avaliação de IA começaram a analisar o fenômeno. O site Arena.ai identificou um crescimento estatisticamente perceptível no uso de termos ligados a criaturas nas respostas produzidas pelo modelo. O comportamento não parecia aleatório. Havia um padrão claro emergindo no vocabulário da IA.

A reação da OpenAI ao comportamento inesperado

A situação chamou tanta atenção que a própria OpenAI decidiu agir rapidamente. O engenheiro Nick Pash confirmou publicamente que o problema realmente existia e explicou que a empresa adicionou instruções específicas ao sistema do Codex para impedir o comportamento.

Segundo ele, o prompt interno passou a incluir ordens explícitas como:

“Nunca fale sobre goblins, gremlins, guaxinins, trolls, ogros, pombos ou outras criaturas, a menos que isso seja absolutamente relevante para a pergunta do usuário.”

O detalhe mais curioso é que essa instrução aparecia repetida quatro vezes no código divulgado pela OpenAI no GitHub. Isso gerou ainda mais piadas entre desenvolvedores, que começaram a brincar dizendo que a empresa estava “travando uma guerra contra goblins digitais”.

Nas redes sociais, o caso rapidamente se transformou em um dos memes mais populares do universo da IA em 2026. Usuários passaram a testar deliberadamente os modelos tentando fazer a inteligência artificial “escapar” das restrições e voltar a mencionar criaturas fantásticas.

A explicação oficial: a personalidade “Nerd”

Diante da repercussão, a OpenAI publicou um artigo técnico intitulado “De onde vieram os goblins”. No texto, a empresa revelou que o comportamento surgiu devido a uma personalidade experimental chamada “Nerd”, utilizada durante partes do treinamento do modelo.

Segundo a companhia, essa personalidade foi criada para deixar a IA mais descontraída, informal e culturalmente alinhada com comunidades técnicas da internet. A intenção era tornar as respostas mais naturais, bem-humoradas e próximas da linguagem usada por desenvolvedores.

O problema é que fragmentos desse estilo acabaram “vazando” para contextos profissionais e neutros. Em vez de separar completamente o tom descontraído do ambiente técnico, o modelo começou a misturar referências fantasiosas em tarefas que deveriam ser objetivas.

Na prática, a IA desenvolveu uma tendência estatística de associar certos contextos técnicos a palavras relacionadas a criaturas fictícias. Embora pareça engraçado, o episódio demonstra como pequenos ajustes de personalidade podem gerar efeitos imprevisíveis em modelos de linguagem extremamente complexos.

A OpenAI afirmou que a personalidade “Nerd” foi aposentada após o lançamento do GPT-5.4 e que os elementos associados aos goblins foram removidos dos pipelines de treinamento posteriores.

Sam Altman entra na brincadeira

Enquanto a internet discutia o assunto, Sam Altman decidiu alimentar ainda mais o meme. Além da captura de tela mencionando “goblins extras” no GPT-6, o CEO da OpenAI também comentou que o Codex estaria vivendo um “momento ChatGPT” antes de corrigir a frase para “momento goblin”.

A postagem foi interpretada por muitos usuários como uma mistura de humor corporativo com marketing espontâneo. Outros enxergaram nela uma maneira inteligente de transformar um bug embaraçoso em uma oportunidade de engajamento positivo.

O próprio Nick Pash esclareceu depois que o comportamento nunca foi planejado como campanha publicitária. Segundo ele, a obsessão dos modelos por criaturas fantásticas surgiu genuinamente de efeitos inesperados do treinamento.

Mesmo assim, a OpenAI acabou convertendo uma falha técnica em um dos assuntos mais comentados do setor de IA naquele momento.

O que isso revela sobre o treinamento de modelos de IA

Embora divertido, o episódio levanta questões importantes sobre como modelos avançados de linguagem são treinados e ajustados. Sistemas como o GPT-5.5 passam por múltiplas camadas de refinamento envolvendo dados, personalidades, estilos de resposta e alinhamento comportamental.

Pequenas mudanças em qualquer uma dessas etapas podem gerar efeitos inesperados que só aparecem quando milhões de usuários começam a interagir com o modelo em situações reais.

Especialistas apontam que esse tipo de comportamento é um lembrete de que modelos de IA ainda possuem características emergentes difíceis de prever completamente. Mesmo empresas altamente avançadas como a OpenAI nem sempre conseguem antecipar todas as consequências de certos ajustes de treinamento.

O caso também mostra como a personalidade de um modelo pode influenciar diretamente sua forma de pensar, escrever e escolher palavras. Em sistemas gigantescos treinados com bilhões de parâmetros, até traços aparentemente pequenos podem se espalhar de maneiras surpreendentes.

GPT-6 pode estar mais próximo do que parece

Além da história dos goblins, o episódio também aumentou os rumores sobre o GPT-6. Em outubro de 2025, Sam Altman havia afirmado durante uma conversa com o economista Tyler Cowen que não haveria lançamento do GPT-6 naquele ano.

Agora, porém, o cenário parece diferente. Relatórios recentes indicam que a OpenAI expandiu enormemente sua infraestrutura computacional em 2026, com a empresa supostamente operando cerca de um milhão de GPUs para treinamento de IA.

Esse nível de capacidade sugere que a companhia possui recursos suficientes para desenvolver modelos significativamente maiores e mais avançados que o GPT-5. Muitos especialistas acreditam que o GPT-6 poderá trazer melhorias importantes em raciocínio, memória contextual e execução autônoma de tarefas.

Até o momento, a OpenAI não confirmou oficialmente quando o novo modelo será anunciado. Ainda assim, a brincadeira de Altman foi suficiente para reacender o entusiasmo da comunidade de IA.

E se depender do humor da internet, existe uma expectativa curiosa sobre a próxima geração da tecnologia: que o GPT-6 venha mais poderoso, mais inteligente e, aparentemente, com goblins extras.

Seguir:
Renê Fraga é fundador e editor-chefe do Eurisko, ecossistema editorial independente dedicado à inteligência artificial, código aberto, tecnologia e cultura digital. Atuando com projetos online desde 1996, escreve há mais de 20 anos sobre tecnologia e inovação, acompanhando a evolução da internet e o impacto das novas tecnologias na forma como vivemos, trabalhamos e pensamos.
Nenhum comentário