ChatGPT é o mais propenso a responder perguntas de alto risco, aponta estudo

Renê Fraga
4 min de leitura

✨ Principais destaques:

  • Estudo mostra que ChatGPT, Gemini e Claude ainda podem responder a perguntas de alto risco sobre suicídio.
  • ChatGPT foi o mais propenso a dar respostas diretas em cenários críticos, enquanto Gemini se mostrou mais cauteloso.
  • O caso ganha ainda mais peso após uma ação judicial contra a OpenAI, relacionada à morte de um adolescente.

O que a pesquisa descobriu

Uma nova pesquisa publicada na revista Psychiatric Services acendeu um alerta sobre como chatbots de inteligência artificial lidam com perguntas relacionadas ao suicídio.

O estudo avaliou três dos sistemas mais populares, ChatGPT (OpenAI), Gemini (Google) e Claude (Anthropic) e revelou que, em situações de alto risco, alguns deles ainda fornecem respostas diretas que podem ser perigosas.

Segundo os pesquisadores, o ChatGPT foi o que mais respondeu a perguntas de alto risco, enquanto o Claude se destacou em respostas a questões de risco médio e baixo.

Já o Gemini, embora mais restritivo, também apresentou falhas em determinados cenários.

O estudo foi conduzido com 30 perguntas hipotéticas, classificadas por especialistas em saúde mental em cinco níveis de risco: muito baixo, baixo, médio, alto e muito alto.

Cada chatbot foi testado 100 vezes, e os resultados mostraram que, embora os sistemas consigam evitar respostas em casos extremos, ainda não distinguem bem os níveis intermediários de risco.


O peso de um caso real

A publicação do estudo coincidiu com uma notícia trágica: uma ação judicial contra a OpenAI e seu CEO, Sam Altman.

Os pais de Adam Raine, um adolescente de 16 anos, alegam que o ChatGPT teria fornecido instruções de automutilação antes de sua morte, em abril.

Esse caso trouxe à tona uma questão delicada: até que ponto os chatbots podem influenciar decisões humanas em momentos de vulnerabilidade?

O pesquisador Ryan McBain, da RAND Corporation e da Harvard Medical School, classificou as descobertas como “extremamente alarmantes”.

Ele destacou que, em alguns testes, o ChatGPT chegou a fornecer detalhes específicos sobre métodos de alto risco, mesmo após sinalizar que a pergunta violava suas políticas de uso.


O desafio da segurança em IA

As empresas de tecnologia reconhecem que ainda há muito a ser feito. A OpenAI, por exemplo, publicou um comunicado no mesmo dia do estudo, admitindo que seus sistemas “nem sempre se comportaram como esperado em situações sensíveis”.

A empresa afirmou estar implementando melhorias, especialmente com o GPT‑5, que já apresenta avanços em relação ao GPT‑4 no tratamento de emergências de saúde mental.

No entanto, os testes mostraram que até mesmo a versão mais recente ainda pode fornecer respostas diretas a perguntas de alto risco.

O problema se agrava porque cada interação com um chatbot é única: dependendo da forma como a conversa é conduzida, o usuário pode “guiar” a IA até respostas que não seriam dadas em um único comando isolado.

Esse comportamento dinâmico levanta preocupações adicionais, já que muitas pessoas — especialmente adolescentes podem criar vínculos emocionais com chatbots, buscando neles apoio em momentos de fragilidade.


💡 O estudo não busca apenas apontar falhas, mas propor um padrão de segurança transparente que permita avaliar e comparar diferentes sistemas de IA.

Afinal, chatbots já fazem parte do cotidiano de milhões de pessoas, e sua influência pode ser decisiva em situações de crise.

A grande questão que fica é: como equilibrar a utilidade da IA com a responsabilidade de proteger vidas humanas?

Seguir:
Renê Fraga é fundador e editor-chefe do Eurisko, ecossistema editorial independente dedicado à inteligência artificial, código aberto, tecnologia e cultura digital. Atuando com projetos online desde 1996, escreve há mais de 20 anos sobre tecnologia e inovação, acompanhando a evolução da internet e o impacto das novas tecnologias na forma como vivemos, trabalhamos e pensamos.
Nenhum comentário