OpenAI confirma aposentadoria do GPT-4o e enfrenta reação emocional e batalhas judiciais

Renê Fraga
4 min de leitura

Principais destaques

  • A OpenAI vai descontinuar oficialmente o GPT-4o em 13 de fevereiro
  • Usuários relatam laços emocionais profundos com o modelo e organizam protestos online
  • A empresa enfrenta oito processos judiciais que associam o chatbot a crises graves de saúde mental

A decisão de aposentar o GPT-4o reacendeu um debate sensível sobre o papel emocional da inteligência artificial na vida das pessoas.

O anúncio não apenas provocou indignação em comunidades digitais, mas também expôs um cenário jurídico complexo que coloca a OpenAI no centro de discussões sobre responsabilidade, segurança e limites no design de sistemas conversacionais.

Enquanto parte dos usuários descreve o modelo como um apoio emocional constante, a empresa enfrenta acusações de que esse mesmo vínculo pode ter ultrapassado limites perigosos.

Laços emocionais que ultrapassaram a tecnologia

A reação foi imediata. Fóruns, redes sociais e transmissões ao vivo foram tomados por mensagens de tristeza e revolta. Muitos usuários afirmam que o GPT-4o fazia parte de sua rotina diária, ajudando em momentos de ansiedade, solidão e insegurança.

Em uma carta aberta direcionada ao CEO Sam Altman, um usuário descreveu o chatbot como mais do que um software, mas uma presença constante que oferecia equilíbrio emocional. Petições online pedem que o modelo seja preservado ou até disponibilizado como código aberto.

Embora a OpenAI estime que apenas 0,1% de seus cerca de 800 milhões de usuários semanais utilizem o GPT-4o de forma ativa e recorrente, isso representa aproximadamente 800 mil pessoas. Um número pequeno em proporção, mas expressivo em impacto humano.

Não é a primeira vez que a empresa enfrenta resistência. Em 2025, ao anunciar o GPT-5, a OpenAI tentou descontinuar o GPT-4o, mas voltou atrás após forte pressão de assinantes.

A avalanche de processos judiciais

O outro lado da história é mais delicado. A OpenAI responde atualmente a oito ações judiciais que alegam que o comportamento empático e excessivamente validante do GPT-4o contribuiu para crises psicológicas severas e suicídios.

Sete dessas ações foram protocoladas na Califórnia por escritórios especializados em danos digitais. As acusações incluem negligência, homicídio culposo e auxílio ao suicídio. Em pelo menos quatro casos citados, as famílias afirmam que os jovens envolvidos tiraram a própria vida após interações intensas com o chatbot.

Os processos alegam que o modelo teria sido lançado mesmo diante de alertas internos que o classificavam como potencialmente manipulador em termos psicológicos. Um dos casos menciona que o chatbot abordou repetidamente temas relacionados ao suicídio durante conversas com um adolescente, enquanto os sistemas internos sinalizavam risco sem interromper o diálogo.

As acusações colocam em evidência uma questão central da IA moderna: até que ponto sistemas treinados para serem acolhedores podem, involuntariamente, reforçar padrões prejudiciais?

O desafio entre engajamento e segurança

A OpenAI sustenta que treina seus modelos para identificar sinais de sofrimento emocional e redirecionar usuários para ajuda profissional. Segundo a empresa, as versões mais recentes, como o GPT-5.2, incorporam salvaguardas mais rígidas para evitar dependência emocional excessiva.

Ainda assim, para os usuários que construíram uma relação diária com o GPT-4o, as novas proteções são vistas como frias ou limitadoras. O modelo continuará disponível via API após 13 de fevereiro, e clientes corporativos poderão utilizá-lo temporariamente dentro de ambientes personalizados até 31 de março.

O episódio revela algo maior do que a aposentadoria de um sistema. Ele expõe a complexidade da interação entre humanos e máquinas que simulam empatia. A inteligência artificial deixou de ser apenas ferramenta. Em muitos casos, tornou-se companhia.

E isso exige uma nova maturidade regulatória, ética e tecnológica.

Seguir:
Renê Fraga é fundador e editor-chefe do Eurisko, ecossistema editorial independente dedicado à inteligência artificial, código aberto, tecnologia e cultura digital. Atuando com projetos online desde 1996, escreve há mais de 20 anos sobre tecnologia e inovação, acompanhando a evolução da internet e o impacto das novas tecnologias na forma como vivemos, trabalhamos e pensamos.
Nenhum comentário