DeepSeekMath‑V2: a IA chinesa que redefiniu os limites do raciocínio matemático

Renê Fraga
4 min de leitura

Principais destaques

  • Superação humana: O modelo DeepSeekMath‑V2 atingiu 118 de 120 pontos na Putnam 2024, ultrapassando a melhor pontuação humana.
  • Avanço técnico: O sistema utiliza um método de autoverificação que avalia a coerência das provas matemáticas, não apenas o resultado final.
  • Força da China no open source: A China agora lidera mundialmente em downloads de modelos de IA de código aberto.

Em um movimento que pode redefinir o futuro da inteligência artificial, a startup chinesa DeepSeek apresentou o DeepSeekMath‑V2, um modelo de raciocínio matemático com 685 bilhões de parâmetros, que fez história ao alcançar 118 pontos de 120 na Competição Matemática Putnam 2024, ultrapassando a melhor nota humana de 90 pontos.

O feito não para por aí. O modelo também teve desempenho digno de medalha de ouro na Olimpíada Internacional de Matemática (IMO) 2025 e na Olimpíada Chinesa de Matemática 2024, consolidando‑se como o primeiro modelo de código aberto a atingir esse nível de excelência.

E, diferente de grandes nomes como OpenAI e Google DeepMind, a DeepSeek publicou os pesos do modelo no Hugging Face e GitHub, sob licença Apache 2.0, ampliando o acesso da comunidade global de pesquisa.


Um novo paradigma: a autoverificação como eixo do raciocínio lógico

O diferencial mais impressionante do DeepSeekMath‑V2 não está apenas no resultado, mas no como ele chega lá.

A equipe por trás do projeto desenvolveu uma arquitetura de modelo duplo, onde um sistema funciona como um “provador”, responsável por elaborar provas matemáticas, enquanto outro atua como “revisor”, fiscalizando o raciocínio em busca de falhas lógicas ou lacunas.

A proposta ataca de frente uma das fragilidades mais conhecidas da IA: a tendência de gerar respostas corretas por acaso, sem comprovar a validade do processo de dedução.

Segundo a DeepSeek, o novo framework busca a qualidade e consistência da prova, valorizando a clareza e a solidez argumentativa acima do simples acerto da resposta.

Essa filosofia é sustentada por um método de treinamento chamado Otimização de Política Relativa de Grupo, que recompensou o modelo por provas completas, não apenas por respostas certas.

Nos testes do IMO‑ProofBench, o DeepSeekMath‑V2 atingiu 99% de sucesso em provas formais, superando com folga o Gemini DeepThink, do Google, que obteve 89%.


A supremacia chinesa no ecossistema open source

O lançamento do DeepSeekMath‑V2 chega em um momento estratégico: a China finalmente ultrapassou os Estados Unidos em participação global no mercado de IA de código aberto.

Um estudo conjunto do MIT e Hugging Face, divulgado no fim de novembro, revelou que 17% dos downloads mundiais de modelos abertos vieram de projetos chineses, superando a participação americana de 15,8%.

Essa virada de jogo tem dois protagonistas principais: a própria DeepSeek e a série Qwen, modelo open source desenvolvido pela Alibaba.

Ambos consolidam a percepção de que a inteligência artificial aberta pode florescer fora dos grandes polos tradicionais, ao unir inovação técnica, filosofia colaborativa e impacto global.


💡 Ao tornar público não apenas os resultados, mas a estrutura interna de seu modelo, a DeepSeek mostra que a próxima grande revolução em IA pode vir não das respostas certas, mas das provas bem construídas.

O DeepSeekMath‑V2 é mais que um modelo matemático, é um lembrete de que transparência e rigor lógico ainda importam, e talvez sejam eles o verdadeiro caminho para uma IA mais confiável e humana.

Seguir
Renê Fraga é fundador e editor-chefe do Eurisko, ecossistema editorial independente dedicado à inteligência artificial, código aberto, tecnologia e cultura digital. Atuando com projetos online desde 1996, escreve há mais de 20 anos sobre tecnologia e inovação, acompanhando a evolução da internet e o impacto das novas tecnologias na forma como vivemos, trabalhamos e pensamos.
Nenhum comentário