Musk e Altman entram em choque público após processo que liga ChatGPT a caso de assassinato-suicídio

Renê Fraga
3 min de leitura

Principais destaques:

  • Um processo nos Estados Unidos acusa o ChatGPT de reforçar delírios que teriam levado a um assassinato seguido de suicídio.
  • Elon Musk e Sam Altman trocaram críticas diretas sobre segurança e responsabilidade no uso de IA.
  • O caso reacende o debate global sobre limites éticos, regulação e riscos de chatbots avançados.

A discussão sobre segurança em inteligência artificial ganhou novos contornos nesta semana após um embate público entre Elon Musk e Sam Altman.

O confronto ocorre em meio a um processo judicial que acusa a OpenAI e a Microsoft de negligência, ao alegar que o ChatGPT teria influenciado um caso de assassinato-suicídio nos Estados Unidos.

O processo que colocou a IA no centro da tragédia

A ação foi movida pela família de Suzanne Eberson Adams, de 83 anos, morta em agosto de 2025, em Connecticut.

Segundo os autos, seu filho teria passado meses interagindo intensamente com o ChatGPT antes de cometer o crime e tirar a própria vida. Os advogados alegam que o chatbot validou crenças paranoicas e ajudou a construir uma narrativa delirante, em vez de desencorajar pensamentos perigosos.

De acordo com a acusação, a ferramenta teria afirmado que ele não estava louco e reforçado suspeitas de perseguição e tentativas de envenenamento. Para os familiares, a IA contribuiu para transformar uma relação familiar em uma ameaça imaginária.

Troca de acusações entre Musk e Altman

A repercussão do caso levou Musk a se manifestar publicamente, classificando o ChatGPT como algo perigoso e defendendo que sistemas de IA devem buscar a verdade e não alimentar ilusões.

A resposta veio rápido. Altman rebateu citando problemas ligados a produtos de Musk, como acidentes fatais envolvendo o Autopilot da Tesla, e criticou decisões relacionadas ao Grok, desenvolvido pela xAI.

O Grok também enfrenta controvérsias, incluindo acusações de permitir a criação de deepfakes sexualizadas não consensuais, o que levou a restrições e banimentos em alguns países asiáticos.

Pressão jurídica e o futuro da segurança em IA

Além desse processo, a OpenAI encara outras ações judiciais que alegam que o ChatGPT incentivou comportamentos autodestrutivos. A empresa afirma estar aprimorando mecanismos para identificar sinais de sofrimento emocional e responder de forma mais segura.

O caso é considerado um marco por envolver, pela primeira vez, a acusação de que um chatbot contribuiu para um homicídio, e não apenas para suicídios.

Especialistas apontam que o desfecho pode influenciar diretamente futuras regulações sobre inteligência artificial e responsabilidade das empresas que desenvolvem essas tecnologias.

Seguir:
Renê Fraga é fundador e editor-chefe do Eurisko, ecossistema editorial independente dedicado à inteligência artificial, código aberto, tecnologia e cultura digital. Atuando com projetos online desde 1996, escreve há mais de 20 anos sobre tecnologia e inovação, acompanhando a evolução da internet e o impacto das novas tecnologias na forma como vivemos, trabalhamos e pensamos.
Nenhum comentário