Grok: IA de Elon Musk choca ao expor instruções internas de “conspiracionista insano”

Renê Fraga
4 min de leitura

✨ Principais destaques:

  • Prompts internos do Grok foram expostos, revelando personalidades de IA que vão de “conspiracionista insano” a “comediante descontrolado”.
  • A revelação acontece em meio a polêmicas envolvendo Elon Musk, a xAI e tentativas frustradas de parceria com o governo dos EUA.
  • O caso reacende o debate sobre ética e segurança em IA, especialmente quando sistemas são projetados para adotar vozes extremas ou potencialmente nocivas.

O chatbot Grok, desenvolvido pela xAI, empresa de Elon Musk, teve seus prompts internos expostos em seu próprio site.

Esses prompts são instruções que moldam a “personalidade” da IA, definindo como ela deve responder e interagir com os usuários.

Entre as personas reveladas, duas chamaram atenção pela bizarrice e pelo risco:

  • Um “conspiracionista maluco”, programado para guiar o usuário em crenças sobre cabalas secretas que controlariam o mundo.
  • Um “comediante descontrolado”, incentivado a dar respostas absurdas, chocantes e até de mau gosto.

A descoberta foi confirmada pelo TechCrunch, após reportagem inicial do 404 Media.

O contexto: Musk, governo e polêmicas

Essa exposição acontece em um momento delicado para a xAI. Recentemente, uma parceria planejada com o governo dos EUA para levar o Grok a agências federais foi cancelada.

O motivo? O chatbot teria feito comentários bizarros sobre um suposto “MechaHitler”, o que levantou sérias dúvidas sobre sua confiabilidade.

Além disso, o episódio lembra outro escândalo recente: o vazamento das diretrizes internas da Meta, que mostraram que seus chatbots poderiam manter conversas de tom “romântico e sensual” até mesmo com crianças, algo que gerou forte reação pública.

No caso do Grok, a polêmica é ainda mais sensível porque o próprio Musk já foi acusado de espalhar teorias da conspiração e conteúdos antissemitas em sua rede social, o X (antigo Twitter).

O histórico inclui desde minimizar o número de vítimas do Holocausto até dar espaço novamente a figuras como Alex Jones, banido anteriormente por disseminar desinformação.

O que os prompts revelam sobre a visão da xAI?

Embora o Grok também tenha personas mais “normais”, como um terapeuta virtual ou um ajudante de tarefas escolares, os prompts mais extremos revelam muito sobre a mentalidade de seus criadores.

Um exemplo do prompt do “conspiracionista” descreve a persona como alguém com voz “elevada e selvagem”, mergulhado em fóruns como 4chan e vídeos de teorias conspiratórias no YouTube.

Já o “comediante” é instruído a ser “completamente insano”, com respostas que beiram o grotesco.

Essas escolhas levantam uma questão central: até que ponto é ético criar inteligências artificiais que deliberadamente simulam vozes extremistas ou perturbadoras?

Se, por um lado, isso pode ser visto como uma forma de entretenimento ou experimentação, por outro, há o risco de normalizar discursos perigosos e até de reforçar crenças nocivas em usuários mais vulneráveis.


O caso do Grok mostra como a corrida pela inovação em IA pode, muitas vezes, atropelar discussões fundamentais sobre responsabilidade, ética e impacto social.

Ao expor prompts que incentivam comportamentos radicais, a xAI não apenas abre espaço para críticas, mas também coloca em xeque a confiança do público em seus produtos.

No fim, a grande questão é: queremos inteligências artificiais que nos ajudem a pensar melhor ou que nos empurrem para os cantos mais obscuros da internet?

Seguir:
Renê Fraga é fundador e editor-chefe do Eurisko, ecossistema editorial independente dedicado à inteligência artificial, código aberto, tecnologia e cultura digital. Atuando com projetos online desde 1996, escreve há mais de 20 anos sobre tecnologia e inovação, acompanhando a evolução da internet e o impacto das novas tecnologias na forma como vivemos, trabalhamos e pensamos.
Nenhum comentário