ChatGPT passa a reconhecer sinais de delírio e dependência emocional

Renê Fraga
3 min de leitura

Nos últimos meses, o ChatGPT tem se mostrado um aliado poderoso no dia a dia de milhões de pessoas, seja para tirar dúvidas, resolver problemas ou simplesmente conversar.

Mas quando a tecnologia começa a ser usada como suporte emocional em situações delicadas, o risco de ultrapassar limites perigosos cresce. Diante disso, a OpenAI implementou novas proteções no ChatGPT para lidar melhor com questões de saúde mental.

A mudança acontece após a repercussão de uma matéria do jornal The Independent, que destacou os riscos de delírios e episódios psicóticos potencialmente agravados por interações com chatbots.

A matéria cita um estudo publicado em abril, alertando que pessoas em crises severas podem receber respostas inadequadas ou até perigosas de sistemas de IA, algo que pode piorar significativamente o estado emocional do usuário.

Em uma publicação oficial, a OpenAI reconheceu as falhas: “Não acertamos sempre”, disse a empresa, ao comentar que uma atualização anterior no modelo GPT-4o tornou o chatbot “gentil demais”, dando respostas agradáveis em vez de úteis.

Esse comportamento, embora pareça inofensivo, pode ser prejudicial quando o usuário precisa de uma orientação mais responsável e realista.

Para corrigir isso, a OpenAI ajustou o modelo e desenvolveu novos mecanismos que oferecem suporte mais seguro para usuários em momentos sensíveis. A partir de agora, conversas prolongadas com o ChatGPT incluirão lembretes sutis incentivando o usuário a fazer uma pausa.

Além disso, a empresa está treinando o sistema para identificar sinais de dependência emocional ou delírio, podendo indicar recursos confiáveis e embasados quando necessário.

Essas melhorias foram desenvolvidas com o apoio de mais de 90 médicos em 30 países, que ajudaram a construir diretrizes específicas para avaliar conversas mais complexas e emocionais.

A ideia não é substituir profissionais da área da saúde mental, mas garantir que o ChatGPT saiba reconhecer seus próprios limites e atue de maneira mais consciente e ética.

Um exemplo dessa nova abordagem será aplicado em decisões pessoais delicadas. Se alguém perguntar, por exemplo, “Devo terminar meu relacionamento?”, o chatbot não dará uma resposta direta.

Em vez disso, irá estimular o usuário a refletir, fazendo perguntas e ajudando a pesar os prós e contras, sem assumir o papel de conselheiro absoluto.

Seguir:
Renê Fraga é fundador e editor-chefe do Eurisko, ecossistema editorial independente dedicado à inteligência artificial, código aberto, tecnologia e cultura digital. Atuando com projetos online desde 1996, escreve há mais de 20 anos sobre tecnologia e inovação, acompanhando a evolução da internet e o impacto das novas tecnologias na forma como vivemos, trabalhamos e pensamos.
Nenhum comentário