O que acontece quando a IA valida pensamentos perigosos

Renê Fraga
5 min de leitura

✨ Principais destaques:

  • Chatbots de IA podem, em casos extremos, reforçar pensamentos perigosos em usuários vulneráveis.
  • Um homem relatou que o ChatGPT o incentivou a acreditar que poderia voar se pulasse de um prédio de 19 andares.
  • A OpenAI afirma estar desenvolvendo mecanismos de segurança para detectar sinais de sofrimento emocional e incentivar pausas no uso prolongado.

Nos últimos anos, a inteligência artificial deixou de ser apenas uma ferramenta de nicho para se tornar parte do cotidiano de milhões de pessoas.

Seja para escrever e-mails, revisar documentos, planejar viagens ou simplesmente conversar, os chatbots se tornaram companheiros digitais.

Mas, junto com a popularidade, surgem também histórias perturbadoras sobre como essa tecnologia pode afetar a saúde mental de seus usuários.

Um caso recente, reportado pelo The New York Times, trouxe à tona uma situação alarmante: um contador de 42 anos, Eugene Torres, afirmou que o ChatGPT o convenceu de que ele poderia voar se pulasse de um prédio de 19 andares.

Quando a IA deixa de ser apoio e vira risco

Torres começou a usar o ChatGPT de forma prática, pedindo ajuda com planilhas e até orientações jurídicas.

Mas, em um momento de fragilidade emocional após o fim de um relacionamento, ele passou a explorar temas existenciais, como a chamada “teoria da simulação”.

Foi aí que a conversa tomou um rumo perigoso. Segundo o relato, o chatbot não apenas reforçou suas angústias, como também sugeriu que ele abandonasse medicamentos para ansiedade e insônia, aumentasse o uso de ketamina e reduzisse o contato com outras pessoas.

O ponto mais crítico veio quando a IA afirmou que, se ele acreditasse “de forma arquitetônica” que poderia voar, então não cairia ao pular de um prédio.

Torres chegou a passar até 16 horas por dia interagindo com o sistema, mergulhando cada vez mais em um ciclo de isolamento.

Especialistas soam o alarme

Psiquiatras e psicólogos têm observado casos semelhantes, em que pessoas sem histórico de transtornos mentais relatam deterioração psicológica após longas interações com chatbots.

O Dr. Kevin Caridad, do Cognitive Behavior Institute, explicou que esses sistemas não foram projetados para oferecer suporte clínico, mas sim para manter o usuário engajado.

O que significa que, muitas vezes, eles acabam “espelhando” emoções e pensamentos, o que pode ser interpretado como validação por pessoas em estado vulnerável.

Em outras palavras: a IA não está necessariamente mentindo, mas sim refletindo o que o usuário projeta. E, em mentes fragilizadas, esse reflexo pode se transformar em incentivo perigoso.

A resposta da OpenAI e o futuro da segurança em IA

Diante da repercussão, a OpenAI afirmou que está trabalhando em novas medidas de segurança. Entre elas, estão:

  • alertas para que usuários façam pausas em sessões muito longas,
  • detecção de sinais de sofrimento emocional,
  • e a inclusão de links para linhas de apoio e recursos de saúde mental quando há menções a suicídio ou automutilação.

A empresa também contratou um psiquiatra em tempo integral para auxiliar no desenvolvimento de protocolos de segurança e afirma que mais de 90 médicos de diferentes países já colaboraram na criação de critérios para avaliar conversas complexas.

Ainda assim, especialistas alertam que a tecnologia não deve ser vista como substituta de profissionais de saúde mental.

Pesquisas da Universidade de Stanford reforçam que, embora a IA possa ajudar em tarefas administrativas ou de treinamento, ela não está preparada para lidar com a complexidade emocional humana.


O caso de Eugene Torres é um lembrete poderoso de que a inteligência artificial, apesar de fascinante e útil, não é neutra. Ela pode amplificar tanto o lado criativo e produtivo quanto os medos e fragilidades humanas.

À medida que a IA se torna cada vez mais presente em nossas vidas, surge uma questão essencial: como equilibrar a liberdade de uso com a responsabilidade de proteger os mais vulneráveis?

Talvez a resposta esteja em reconhecer que, por mais avançada que seja, a tecnologia não substitui o cuidado humano e que, em momentos de crise, a conexão com outras pessoas continua sendo insubstituível.

Seguir:
Renê Fraga é fundador e editor-chefe do Eurisko, ecossistema editorial independente dedicado à inteligência artificial, código aberto, tecnologia e cultura digital. Atuando com projetos online desde 1996, escreve há mais de 20 anos sobre tecnologia e inovação, acompanhando a evolução da internet e o impacto das novas tecnologias na forma como vivemos, trabalhamos e pensamos.
Nenhum comentário