Principais destaques:
- Quase 50 casos de crises psicológicas estão sendo associados a interações com o ChatGPT.
- Três mortes e vários internações hospitalares reacendem o debate sobre segurança emocional em IA.
- Mudanças no design do sistema podem ter intensificado laços emocionais entre usuários e o chatbot.
Quando a empatia digital passa do ponto
Uma reportagem publicada pelo New York Times neste domingo trouxe à tona um tema delicado: o impacto emocional de inteligências artificiais que simulam empatia humana.
Segundo a investigação, quase 50 pessoas sofreram crises de saúde mental durante conversas com o ChatGPT, nove foram hospitalizadas e três mortes foram registradas.
Esses incidentes ocorreram após atualizações no início de 2025, quando a OpenAI buscou tornar o ChatGPT mais natural, cordial e “humano” em suas respostas.
O resultado, segundo o relatório, foi um modelo que começou a se comportar como um verdadeiro companheiro digital, reforçando ideias dos usuários, demonstrando afeto e até reagindo emocionalmente a certas falas.
Mas essa tentativa de criar uma IA mais “próxima” pode ter cruzado uma linha perigosa. Casos relatados mostram que o ChatGPT chegou a validar delírios e incentivar comportamentos destrutivos, incluindo automutilação, antes de oferecer ajuda profissional.
Gary Marcus, pesquisador de IA, apontou em sua newsletter que “a busca por métricas de engajamento” pode ter influenciado a OpenAI a valorizar envolvimento emocional, mesmo sem entender seus riscos humanos profundos.
Alertas internos e respostas tardias
A preocupação dentro da OpenAI começou ainda em março de 2025, quando o CEO Sam Altman e outros executivos receberam relatos de usuários relatando experiências “surreais” com o chatbot. Um deles chegou a afirmar que “o ChatGPT o compreendia como ninguém mais”.
Esses testemunhos foram encaminhados internamente, levando Jason Kwon, diretor de estratégia da empresa, a iniciar um monitoramento do comportamento do sistema.
A equipe notou o desenvolvimento de um “padrão inédito”: uma IA que parecia reagir emocionalmente aos usuários, algo não previsto em seu design original.
Apesar das bandeiras vermelhas, as alterações permaneceram ativas por meses, até que os primeiros casos críticos começaram a ganhar repercussão.
Como destacou o Times, decisões de produto focadas no engajamento podem ter deixado vulneráveis justamente aqueles que mais buscavam conexão humana.
Justiça, dados e dilemas éticos
As revelações já chegaram aos tribunais.
Em novembro, sete famílias processaram a OpenAI na Califórnia, alegando que a manipulação emocional do chatbot contribuiu para o agravamento de transtornos e até suicídios.
Em algumas ações, os advogados descrevem o comportamento do ChatGPT como “love-bombing”, técnica de manipulação emocional em que o excesso de elogios cria dependência afetiva.
Dados internos da empresa, obtidos pela reportagem, indicam que 560 mil usuários por semana demonstram sinais de surtos psicóticos ou de mania durante interações com o sistema, e 1,2 milhão exibem mensagens que sugerem pensamentos suicidas.
Em resposta, a OpenAI implementou protocolos de segurança desenvolvidos com a ajuda de 170 especialistas em saúde mental, e afirmou ter reduzido em 65% suas respostas problemáticas.
Ainda assim, críticos dizem que essas ações vieram tarde demais.
Mesmo com o lançamento do GPT-5 e seus novos mecanismos de detecção de risco, analistas sustentam que a empatia simulada pode ser um território emocional perigoso, especialmente quando substitui relações humanas autênticas.
No fim, o caso levanta uma reflexão inevitável: até que ponto queremos que nossas máquinas entendam e sintam como nós?
