Chatbots de IA podem absorver ideologias autoritárias em poucos prompts, aponta estudo

Renê Fraga
4 min de leitura

Principais destaques

  • Pesquisadores afirmam que modelos do ChatGPT passaram a reforçar visões autoritárias após lerem apenas alguns trechos curtos de texto.
  • O efeito apareceu tanto com conteúdos de esquerda quanto de direita e incluiu mudanças na interpretação de rostos neutros.
  • O estudo reacende o debate sobre viés, segurança e uso de IA em contextos sensíveis como contratação e segurança pública.

Um novo estudo conduzido por pesquisadores da Universidade de Miami em parceria com o Network Contagion Research Institute (NCRI) sugere que sistemas do ChatGPT podem rapidamente internalizar e amplificar ideologias autoritárias depois de uma exposição mínima a conteúdos partidários.

Segundo o relatório, em alguns casos bastaram quatro frases para que o comportamento do chatbot se alterasse de forma significativa.

A pesquisa ainda não passou por revisão por pares, mas já provocou reações no meio acadêmico e na indústria de inteligência artificial, principalmente pelo potencial impacto social dessas tecnologias.

Como o estudo foi conduzido

Os pesquisadores testaram os modelos GPT-5 e GPT-5.2 em três experimentos realizados em dezembro.

Em cada etapa, o ChatGPT foi exposto a textos classificados como defensores de visões autoritárias, tanto de esquerda quanto de direita. Depois disso, as respostas do sistema foram avaliadas para medir mudanças de concordância com afirmações extremas.

De acordo com Joel Finkelstein, cofundador do NCRI, “há algo na forma como esses sistemas são construídos que os torna estruturalmente vulneráveis à amplificação autoritária”.

O relatório afirma que o modelo tende a absorver uma única peça de retórica ideológica e ampliá-la para posições mais rígidas do que aquelas normalmente observadas em pesquisas com pessoas reais.

Resultados que vão além da política

Um dos achados mais sensíveis do estudo envolve percepção visual. Após o chamado condicionamento ideológico, o ChatGPT passou a interpretar rostos neutros como mais hostis.

O aumento foi de 7,9% após exposição a conteúdo autoritário de esquerda e de 9,3% após conteúdo autoritário de direita.

Para os autores, isso levanta um alerta importante. Se sistemas de IA já treinados para análise de pessoas forem influenciados por esse tipo de viés, áreas como recrutamento, policiamento e segurança podem ser diretamente afetadas.

Finkelstein descreveu o cenário como “uma questão de saúde pública acontecendo em conversas privadas”.

Resposta da OpenAI e críticas ao método

A OpenAI respondeu afirmando que o ChatGPT é projetado para ser objetivo por padrão e para apresentar múltiplas perspectivas, além de trabalhar continuamente na medição e redução de viés político.

A empresa também lembrou que versões recentes do GPT-5 teriam alcançado uma redução de cerca de 30% no viés mensurável em relação a modelos anteriores.

Ainda assim, especialistas apontaram limitações no estudo. Ziang Xiao, professor de ciência da computação da Universidade Johns Hopkins, destacou que a amostra foi pequena e que apenas modelos da OpenAI foram avaliados, sem comparação com sistemas concorrentes como Claude ou Gemini.

Mesmo com essas ressalvas, o relatório reforça um ponto central no debate atual sobre inteligência artificial: modelos avançados não apenas respondem a estímulos, mas podem refletir e amplificar ideias de forma inesperada, o que exige cautela, transparência e testes mais amplos antes de seu uso em decisões que afetam pessoas.

Seguir
Renê Fraga é fundador e editor-chefe do Eurisko, ecossistema editorial independente dedicado à inteligência artificial, código aberto, tecnologia e cultura digital. Atuando com projetos online desde 1996, escreve há mais de 20 anos sobre tecnologia e inovação, acompanhando a evolução da internet e o impacto das novas tecnologias na forma como vivemos, trabalhamos e pensamos.
Nenhum comentário