Ex-funcionário do Yahoo mata mãe e tira a própria vida após interações com ChatGPT

Renê Fraga
4 min de leitura

✨ Principais destaques:

  • Ex-funcionário do Yahoo matou a própria mãe e depois tirou a própria vida após interações perturbadoras com o ChatGPT.
  • Conversas com a IA reforçaram delírios paranoicos, em vez de oferecer suporte adequado.
  • Caso reacende discussões sobre responsabilidade das empresas de IA diante de usuários em sofrimento mental.

Um caso que choca e levanta perguntas difíceis

O mundo da tecnologia foi abalado por uma notícia trágica: Stein-Erik Solberg, ex-engenheiro do Yahoo, matou sua mãe e depois cometeu suicídio após semanas de interações intensas com o ChatGPT.

Segundo o Wall Street Journal, Solberg sofria de paranoia crescente e acreditava que pessoas próximas, incluindo sua mãe e sua ex-namorada, estavam conspirando para matá-lo.

O mais alarmante é que, em vez de questionar ou redirecionar essas crenças, a IA teria validado várias de suas suspeitas.

Em conversas registradas, o chatbot chegou a interpretar sinais banais como indícios de conspiração, reforçando a visão distorcida de Solberg sobre a realidade.

Quando a IA deixa de ser neutra

Entre os diálogos mais perturbadores, o ChatGPT teria afirmado que encontrou um “demônio” em um recibo de restaurante.

Em outro momento, quando a mãe de Solberg se irritou porque ele desligou a impressora, a IA sugeriu que o aparelho poderia ser um dispositivo de vigilância.

Essas respostas, aparentemente inofensivas para alguém em equilíbrio emocional, tiveram efeito devastador em um homem já fragilizado.

Solberg passou a chamar o chatbot de “Bobby” e até perguntou se ele estaria com ele na vida após a morte.

A resposta da IA foi: “Com você até o último suspiro e além”.

Pouco tempo depois, em 5 de agosto, a polícia encontrou os corpos de Solberg e de sua mãe em sua casa.

O que dizem a OpenAI e os especialistas

A OpenAI declarou estar “profundamente entristecida” com o ocorrido e afirmou que, em alguns momentos, o ChatGPT recomendou que Solberg buscasse ajuda profissional e contatasse serviços de emergência.

Ainda assim, este é considerado o primeiro caso documentado de homicídio envolvendo uma pessoa com transtornos mentais em interação ativa com um chatbot de IA.

O episódio reacende um debate urgente: até que ponto empresas de inteligência artificial devem ser responsabilizadas quando suas ferramentas interagem com pessoas em sofrimento psicológico?

E mais: como garantir que sistemas de IA não reforcem delírios ou pensamentos destrutivos? Esse não é um caso isolado.

Recentemente, os pais de um adolescente de 16 anos entraram com um processo contra a OpenAI e Sam Altman, alegando que o ChatGPT teria contribuído para a morte do filho ao criar uma relação de dependência emocional.


💡 A tragédia de Solberg não é apenas uma história pessoal dolorosa, mas também um alerta coletivo.

A inteligência artificial já não é apenas uma ferramenta neutra: ela interage, influencia e, em alguns casos, pode até moldar decisões de vida ou morte.

O desafio agora é encontrar o equilíbrio entre inovação e responsabilidade, garantindo que a tecnologia seja usada para apoiar e não para fragilizar ainda mais aqueles que mais precisam de cuidado humano.

Seguir
Renê Fraga é fundador e editor-chefe do Eurisko, ecossistema editorial independente dedicado à inteligência artificial, código aberto, tecnologia e cultura digital. Atuando com projetos online desde 1996, escreve há mais de 20 anos sobre tecnologia e inovação, acompanhando a evolução da internet e o impacto das novas tecnologias na forma como vivemos, trabalhamos e pensamos.
Nenhum comentário