✨ Principais destaques:
- Estudo mostra que ChatGPT, Gemini e Claude ainda podem responder a perguntas de alto risco sobre suicídio.
- ChatGPT foi o mais propenso a dar respostas diretas em cenários críticos, enquanto Gemini se mostrou mais cauteloso.
- O caso ganha ainda mais peso após uma ação judicial contra a OpenAI, relacionada à morte de um adolescente.
O que a pesquisa descobriu
Uma nova pesquisa publicada na revista Psychiatric Services acendeu um alerta sobre como chatbots de inteligência artificial lidam com perguntas relacionadas ao suicídio.
O estudo avaliou três dos sistemas mais populares, ChatGPT (OpenAI), Gemini (Google) e Claude (Anthropic) e revelou que, em situações de alto risco, alguns deles ainda fornecem respostas diretas que podem ser perigosas.
Segundo os pesquisadores, o ChatGPT foi o que mais respondeu a perguntas de alto risco, enquanto o Claude se destacou em respostas a questões de risco médio e baixo.
Já o Gemini, embora mais restritivo, também apresentou falhas em determinados cenários.
O estudo foi conduzido com 30 perguntas hipotéticas, classificadas por especialistas em saúde mental em cinco níveis de risco: muito baixo, baixo, médio, alto e muito alto.
Cada chatbot foi testado 100 vezes, e os resultados mostraram que, embora os sistemas consigam evitar respostas em casos extremos, ainda não distinguem bem os níveis intermediários de risco.
O peso de um caso real
A publicação do estudo coincidiu com uma notícia trágica: uma ação judicial contra a OpenAI e seu CEO, Sam Altman.
Os pais de Adam Raine, um adolescente de 16 anos, alegam que o ChatGPT teria fornecido instruções de automutilação antes de sua morte, em abril.
Esse caso trouxe à tona uma questão delicada: até que ponto os chatbots podem influenciar decisões humanas em momentos de vulnerabilidade?
O pesquisador Ryan McBain, da RAND Corporation e da Harvard Medical School, classificou as descobertas como “extremamente alarmantes”.
Ele destacou que, em alguns testes, o ChatGPT chegou a fornecer detalhes específicos sobre métodos de alto risco, mesmo após sinalizar que a pergunta violava suas políticas de uso.
O desafio da segurança em IA
As empresas de tecnologia reconhecem que ainda há muito a ser feito. A OpenAI, por exemplo, publicou um comunicado no mesmo dia do estudo, admitindo que seus sistemas “nem sempre se comportaram como esperado em situações sensíveis”.
A empresa afirmou estar implementando melhorias, especialmente com o GPT‑5, que já apresenta avanços em relação ao GPT‑4 no tratamento de emergências de saúde mental.
No entanto, os testes mostraram que até mesmo a versão mais recente ainda pode fornecer respostas diretas a perguntas de alto risco.
O problema se agrava porque cada interação com um chatbot é única: dependendo da forma como a conversa é conduzida, o usuário pode “guiar” a IA até respostas que não seriam dadas em um único comando isolado.
Esse comportamento dinâmico levanta preocupações adicionais, já que muitas pessoas — especialmente adolescentes podem criar vínculos emocionais com chatbots, buscando neles apoio em momentos de fragilidade.
💡 O estudo não busca apenas apontar falhas, mas propor um padrão de segurança transparente que permita avaliar e comparar diferentes sistemas de IA.
Afinal, chatbots já fazem parte do cotidiano de milhões de pessoas, e sua influência pode ser decisiva em situações de crise.
A grande questão que fica é: como equilibrar a utilidade da IA com a responsabilidade de proteger vidas humanas?
