Principais destaques:
- GPT-5.2, Claude Opus 4.5 e Gemini 3 Pro atingem pontuações praticamente iguais no novo Intelligence Index v4.0
- Avaliação indica um “platô da fronteira” no avanço dos grandes modelos de linguagem
- Novos benchmarks revelam limites claros da IA em pesquisa científica profunda
A corrida pela liderança em inteligência artificial entrou em uma nova fase. O Intelligence Index v4.0, divulgado pela avaliadora independente Artificial Analysis, mostra um empate técnico sem precedentes entre os principais modelos de linguagem do mundo.
O GPT-5.2, da OpenAI, alcançou 50 pontos, enquanto o Claude Opus 4.5, da Anthropic, ficou com 49, e o Gemini 3 Pro, do Google, marcou 48.
Segundo a Artificial Analysis, o resultado simboliza o fim das ultrapassagens rápidas nos rankings que marcaram 2024 e 2025. Em vez de saltos frequentes, os modelos agora evoluem de forma mais incremental, ocupando um patamar técnico muito próximo entre si.
Um platô após anos de avanços acelerados
A nova edição do índice removeu testes que já haviam sido dominados pelos modelos mais avançados e introduziu avaliações inéditas, ajustando também a escala máxima de pontuação. O objetivo foi recuperar margem para medir melhorias futuras e evitar que os líderes encostassem em um teto artificial.
Os fundadores da Artificial Analysis, George Cameron e Micah Hill-Smith, reforçaram que o ranking segue regras rígidas de independência, sem qualquer possibilidade de influência financeira por parte das empresas avaliadas.
Isso fez com que o índice se tornasse uma referência cada vez mais usada por desenvolvedores e compradores corporativos de IA.
Pontos fortes diferentes para necessidades diferentes
Apesar do empate geral, cada modelo se destaca em áreas específicas. O GPT-5.2 lidera em raciocínio abstrato graças ao seu modo de raciocínio avançado, que permite mais etapas internas antes de formular respostas.
O Claude Opus 4.5 obteve a maior pontuação já registrada no SWE-bench Verified, consolidando sua força em tarefas reais de engenharia de software.
Já o Gemini 3 Pro chama atenção pela janela de contexto de 1 milhão de tokens e pela multimodalidade nativa, lidando diretamente com texto, imagens, áudio e vídeo.
Esse equilíbrio reforça uma mudança importante no mercado. Em vez de escolher um único fornecedor, empresas estão adotando estratégias com múltiplos modelos, usando cada IA onde ela entrega mais valor.
Novos testes expõem limites da IA atual
Entre as novidades do índice estão benchmarks que funcionam quase como um teste de realidade.
O AA-Omniscience avaliou milhares de perguntas em domínios profissionais, penalizando alucinações e valorizando respostas que admitem incerteza. Apenas GPT-5.2 e Claude Opus 4.5 conseguiram pontuações positivas.
Ainda mais desafiador foi o CritPt, um teste de raciocínio em física criado por dezenas de pesquisadores para simular problemas de pesquisa em nível de doutorado.
Nenhum modelo superou 10% de acerto. O Gemini 3 Pro liderou com 9,1%, evidenciando que, embora as IAs atuais conversem como especialistas, ainda estão longe de pesquisar como cientistas humanos.
No contexto da disputa entre gigantes como Microsoft, Amazon e o próprio Google por contratos corporativos, o recado do índice é claro.
Olhar apenas o ranking geral já não basta. Entender os pontos fortes de cada modelo se tornou essencial para extrair valor real da inteligência artificial.







