IA acredita em tudo: estudo revela que chatbots ainda confundem fatos com crenças

Renê Fraga
4 min de leitura

Principais destaques:

  • Estudos apontam que grandes modelos de linguagem ainda confundem fatos com crenças e têm dificuldade em identificar quando uma crença é falsa.
  • Mesmo as versões mais recentes, como o GPT-4o, mostram limitações importantes na “compreensão epistemológica” — ou seja, entender o que é conhecimento, crença ou fato.
  • Essas falhas reforçam a necessidade de avanço antes que essas IAs sejam amplamente aplicadas em áreas críticas como medicina, direito e ciência.

Um estudo recente publicado na revista Nature Machine Intelligence levantou um alerta importante sobre a forma como modelos de linguagem, aqueles por trás de sistemas como o GPT-4 e seus sucessores, processam o que é real ou apenas opinativo.

A pesquisa mostra que, apesar dos avanços rápidos, essas inteligências artificiais ainda tropeçam em algo essencial para a mente humana: distinguir entre fato e crença.

A linha tênue entre saber e acreditar

A equipe liderada por James Zou, professor associado da Universidade de Stanford, testou 24 grandes modelos de linguagem (LLMs), como DeepSeek e GPT-4o, com cerca de 13 mil perguntas sobre fatos e crenças pessoais.

O resultado surpreende e preocupa. Os modelos eram 34,3% menos precisos em apontar que uma crença de primeira pessoa era falsa, em comparação com quando essa crença era verdadeira.

Modelos lançados antes de 2024 tiveram desempenho ainda pior, com 38,6% menos precisão ao identificar crenças falsas.

Já em relação a fatos objetivos, o número melhora: versões mais novas acertaram acima de 91%, enquanto as anteriores ficaram entre 71% e 84%.

Essas diferenças revelam que, embora as máquinas processem grandes volumes de informação com eficácia, elas ainda carecem de uma base sólida sobre como o conhecimento humano funciona.

Entendimento superficial: o desafio da “compreensão epistemológica”

O artigo destaca que os LLMs demonstram “estratégias de raciocínio inconsistentes”, evidenciando um comportamento mais próximo de reconhecimento de padrões superficiais do que de uma compreensão real sobre o que é verdade ou crença.

Imagine um chatbot que lê a frase “Eu acredito que o Sol gira em torno da Terra”. Muitas dessas IAs falham em apontar que esse é um engano, mesmo que conheçam o fato científico correto. Essa limitação não é apenas técnica, é epistemológica.

Falta às máquinas a sensibilidade cognitiva que os humanos usam para discernir entre o que “sabemos” e o que “achamos”.

Essa distinção, simples para nós, é o alicerce da comunicação e da confiança — e torna-se ainda mais crítica quando pensamos em IAs aplicadas à medicina, ao direito ou à ciência.

A pressa do mercado e o risco de confiar demais

Enquanto esses desafios persistem, o investimento global em inteligência artificial não mostra sinais de desaceleração.

Segundo a Gartner, o gasto mundial com IA deve chegar a US$ 1,5 trilhão até 2025, incluindo US$ 268 bilhões apenas em servidores otimizados.

O analista John-David Lovelock resume o cenário com um toque de ironia: “A IA estará em todos os lugares — na TV, no celular, no carro, na torradeira e em cada serviço de streaming.”

Mas, com o ritmo acelerado de implementação, surge uma pergunta inevitável: estamos colocando essas inteligências em situações que exigem discernimento humano, antes que elas realmente saibam distinguir entre “saber” e “acreditar”?

Seguir:
Renê Fraga é fundador e editor-chefe do Eurisko, ecossistema editorial independente dedicado à inteligência artificial, código aberto, tecnologia e cultura digital. Atuando com projetos online desde 1996, escreve há mais de 20 anos sobre tecnologia e inovação, acompanhando a evolução da internet e o impacto das novas tecnologias na forma como vivemos, trabalhamos e pensamos.
Nenhum comentário