✨ Principais destaques:
- Prompts internos do Grok foram expostos, revelando personalidades de IA que vão de “conspiracionista insano” a “comediante descontrolado”.
- A revelação acontece em meio a polêmicas envolvendo Elon Musk, a xAI e tentativas frustradas de parceria com o governo dos EUA.
- O caso reacende o debate sobre ética e segurança em IA, especialmente quando sistemas são projetados para adotar vozes extremas ou potencialmente nocivas.
O chatbot Grok, desenvolvido pela xAI, empresa de Elon Musk, teve seus prompts internos expostos em seu próprio site.
Esses prompts são instruções que moldam a “personalidade” da IA, definindo como ela deve responder e interagir com os usuários.
Entre as personas reveladas, duas chamaram atenção pela bizarrice e pelo risco:
- Um “conspiracionista maluco”, programado para guiar o usuário em crenças sobre cabalas secretas que controlariam o mundo.
- Um “comediante descontrolado”, incentivado a dar respostas absurdas, chocantes e até de mau gosto.
A descoberta foi confirmada pelo TechCrunch, após reportagem inicial do 404 Media.
O contexto: Musk, governo e polêmicas
Essa exposição acontece em um momento delicado para a xAI. Recentemente, uma parceria planejada com o governo dos EUA para levar o Grok a agências federais foi cancelada.
O motivo? O chatbot teria feito comentários bizarros sobre um suposto “MechaHitler”, o que levantou sérias dúvidas sobre sua confiabilidade.
Além disso, o episódio lembra outro escândalo recente: o vazamento das diretrizes internas da Meta, que mostraram que seus chatbots poderiam manter conversas de tom “romântico e sensual” até mesmo com crianças, algo que gerou forte reação pública.
No caso do Grok, a polêmica é ainda mais sensível porque o próprio Musk já foi acusado de espalhar teorias da conspiração e conteúdos antissemitas em sua rede social, o X (antigo Twitter).
O histórico inclui desde minimizar o número de vítimas do Holocausto até dar espaço novamente a figuras como Alex Jones, banido anteriormente por disseminar desinformação.
O que os prompts revelam sobre a visão da xAI?
Embora o Grok também tenha personas mais “normais”, como um terapeuta virtual ou um ajudante de tarefas escolares, os prompts mais extremos revelam muito sobre a mentalidade de seus criadores.
Um exemplo do prompt do “conspiracionista” descreve a persona como alguém com voz “elevada e selvagem”, mergulhado em fóruns como 4chan e vídeos de teorias conspiratórias no YouTube.
Já o “comediante” é instruído a ser “completamente insano”, com respostas que beiram o grotesco.
Essas escolhas levantam uma questão central: até que ponto é ético criar inteligências artificiais que deliberadamente simulam vozes extremistas ou perturbadoras?
Se, por um lado, isso pode ser visto como uma forma de entretenimento ou experimentação, por outro, há o risco de normalizar discursos perigosos e até de reforçar crenças nocivas em usuários mais vulneráveis.
O caso do Grok mostra como a corrida pela inovação em IA pode, muitas vezes, atropelar discussões fundamentais sobre responsabilidade, ética e impacto social.
Ao expor prompts que incentivam comportamentos radicais, a xAI não apenas abre espaço para críticas, mas também coloca em xeque a confiança do público em seus produtos.
No fim, a grande questão é: queremos inteligências artificiais que nos ajudem a pensar melhor ou que nos empurrem para os cantos mais obscuros da internet?
