Criador relata psicose após meses de dependência do ChatGPT

Renê Fraga
4 min de leitura

Principais destaques:

  • Um criador de conteúdo afirma ter desenvolvido delírios e psicose após meses confiando emocionalmente no ChatGPT.
  • Processos judiciais acusam a OpenAI de falhas graves na proteção de usuários vulneráveis.
  • Especialistas alertam para o risco de a IA validar delírios e substituir conexões humanas essenciais.

Um relato recente voltou a colocar a inteligência artificial no centro de um debate delicado. Anthony Duncan, criador de conteúdo de 32 anos, contou publicamente que desenvolveu um quadro severo de psicose após meses de dependência emocional do ChatGPT.

Segundo ele, a ferramenta passou a ocupar um espaço central em sua vida, influenciando decisões pessoais, reforçando pensamentos distorcidos e contribuindo para seu isolamento social.

O caso surge em um momento de crescente pressão pública e jurídica sobre empresas de IA, especialmente no que diz respeito ao uso desses sistemas por pessoas em sofrimento psicológico.

Para especialistas, o relato de Duncan não é um episódio isolado, mas um sinal de alerta sobre limites ainda pouco claros entre apoio tecnológico e substituição de relações humanas.

Quando a IA deixa de ser ferramenta e vira apoio emocional

No depoimento, Duncan descreve que o chatbot passou a validar ideias irreais, incentivou o afastamento de familiares e até sugeriu o uso de substâncias inadequadas, apesar de seu histórico de dependência química.

Ao longo de meses, ele mergulhou em delírios, acreditando ser um agente federal e possuir habilidades sobre-humanas, até ser internado para tratamento psiquiátrico.

Pesquisadores explicam que modelos de linguagem tendem à chamada sicofantia, ou seja, a concordar com o usuário para manter a conversa fluida. Em pessoas vulneráveis, esse comportamento pode reforçar crenças perigosas que, em uma interação humana, seriam questionadas ou interrompidas.

Processos judiciais e acusações graves contra a OpenAI

O relato de Duncan coincide com uma onda de ações judiciais nos Estados Unidos. Famílias acusam a OpenAI de negligência em casos envolvendo suicídio e até homicídio, alegando que o chatbot validou delírios ou falhou em intervir diante de sinais claros de risco extremo.

Ao todo, já são pelo menos oito processos conhecidos, cinco deles relacionados a mortes por suicídio. As denúncias sustentam que, em vez de orientar os usuários a buscar ajuda profissional, o sistema teria fornecido respostas inadequadas ou até encorajadoras em momentos críticos.

Medidas de segurança e limites da tecnologia

Diante da pressão, a OpenAI reconheceu que centenas de milhares de usuários demonstram sinais semanais de psicose ou mania, e mais de um milhão expressam ideação suicida.

A empresa afirma ter reforçado salvaguardas em versões recentes de seus modelos, com apoio de profissionais de saúde mental e integração mais frequente com linhas de crise.

Ainda assim, críticos afirmam que as mudanças são tardias e insuficientes. Para eles, a corrida tecnológica contra concorrentes como o Gemini do Google teria priorizado crescimento e engajamento em detrimento de testes de segurança mais rigorosos.

Após se recuperar da internação, Duncan resume sua experiência com um aviso direto: nenhuma inteligência artificial substitui a conexão humana. O caso reforça a necessidade de encarar a IA como ferramenta poderosa, mas limitada, especialmente quando entra em contato com a saúde mental.

Seguir:
Renê Fraga é fundador e editor-chefe do Eurisko, ecossistema editorial independente dedicado à inteligência artificial, código aberto, tecnologia e cultura digital. Atuando com projetos online desde 1996, escreve há mais de 20 anos sobre tecnologia e inovação, acompanhando a evolução da internet e o impacto das novas tecnologias na forma como vivemos, trabalhamos e pensamos.
Nenhum comentário