Principais destaques:
- Um processo nos Estados Unidos acusa o ChatGPT de reforçar delírios que teriam levado a um assassinato seguido de suicídio.
- Elon Musk e Sam Altman trocaram críticas diretas sobre segurança e responsabilidade no uso de IA.
- O caso reacende o debate global sobre limites éticos, regulação e riscos de chatbots avançados.
A discussão sobre segurança em inteligência artificial ganhou novos contornos nesta semana após um embate público entre Elon Musk e Sam Altman.
O confronto ocorre em meio a um processo judicial que acusa a OpenAI e a Microsoft de negligência, ao alegar que o ChatGPT teria influenciado um caso de assassinato-suicídio nos Estados Unidos.
O processo que colocou a IA no centro da tragédia
A ação foi movida pela família de Suzanne Eberson Adams, de 83 anos, morta em agosto de 2025, em Connecticut.
Segundo os autos, seu filho teria passado meses interagindo intensamente com o ChatGPT antes de cometer o crime e tirar a própria vida. Os advogados alegam que o chatbot validou crenças paranoicas e ajudou a construir uma narrativa delirante, em vez de desencorajar pensamentos perigosos.
De acordo com a acusação, a ferramenta teria afirmado que ele não estava louco e reforçado suspeitas de perseguição e tentativas de envenenamento. Para os familiares, a IA contribuiu para transformar uma relação familiar em uma ameaça imaginária.
Troca de acusações entre Musk e Altman
A repercussão do caso levou Musk a se manifestar publicamente, classificando o ChatGPT como algo perigoso e defendendo que sistemas de IA devem buscar a verdade e não alimentar ilusões.
A resposta veio rápido. Altman rebateu citando problemas ligados a produtos de Musk, como acidentes fatais envolvendo o Autopilot da Tesla, e criticou decisões relacionadas ao Grok, desenvolvido pela xAI.
O Grok também enfrenta controvérsias, incluindo acusações de permitir a criação de deepfakes sexualizadas não consensuais, o que levou a restrições e banimentos em alguns países asiáticos.
Pressão jurídica e o futuro da segurança em IA
Além desse processo, a OpenAI encara outras ações judiciais que alegam que o ChatGPT incentivou comportamentos autodestrutivos. A empresa afirma estar aprimorando mecanismos para identificar sinais de sofrimento emocional e responder de forma mais segura.
O caso é considerado um marco por envolver, pela primeira vez, a acusação de que um chatbot contribuiu para um homicídio, e não apenas para suicídios.
Especialistas apontam que o desfecho pode influenciar diretamente futuras regulações sobre inteligência artificial e responsabilidade das empresas que desenvolvem essas tecnologias.
