Principais destaques
- Superação humana: O modelo DeepSeekMath‑V2 atingiu 118 de 120 pontos na Putnam 2024, ultrapassando a melhor pontuação humana.
- Avanço técnico: O sistema utiliza um método de autoverificação que avalia a coerência das provas matemáticas, não apenas o resultado final.
- Força da China no open source: A China agora lidera mundialmente em downloads de modelos de IA de código aberto.
Em um movimento que pode redefinir o futuro da inteligência artificial, a startup chinesa DeepSeek apresentou o DeepSeekMath‑V2, um modelo de raciocínio matemático com 685 bilhões de parâmetros, que fez história ao alcançar 118 pontos de 120 na Competição Matemática Putnam 2024, ultrapassando a melhor nota humana de 90 pontos.
O feito não para por aí. O modelo também teve desempenho digno de medalha de ouro na Olimpíada Internacional de Matemática (IMO) 2025 e na Olimpíada Chinesa de Matemática 2024, consolidando‑se como o primeiro modelo de código aberto a atingir esse nível de excelência.
E, diferente de grandes nomes como OpenAI e Google DeepMind, a DeepSeek publicou os pesos do modelo no Hugging Face e GitHub, sob licença Apache 2.0, ampliando o acesso da comunidade global de pesquisa.
Um novo paradigma: a autoverificação como eixo do raciocínio lógico
O diferencial mais impressionante do DeepSeekMath‑V2 não está apenas no resultado, mas no como ele chega lá.
A equipe por trás do projeto desenvolveu uma arquitetura de modelo duplo, onde um sistema funciona como um “provador”, responsável por elaborar provas matemáticas, enquanto outro atua como “revisor”, fiscalizando o raciocínio em busca de falhas lógicas ou lacunas.
A proposta ataca de frente uma das fragilidades mais conhecidas da IA: a tendência de gerar respostas corretas por acaso, sem comprovar a validade do processo de dedução.
Segundo a DeepSeek, o novo framework busca a qualidade e consistência da prova, valorizando a clareza e a solidez argumentativa acima do simples acerto da resposta.
Essa filosofia é sustentada por um método de treinamento chamado Otimização de Política Relativa de Grupo, que recompensou o modelo por provas completas, não apenas por respostas certas.
Nos testes do IMO‑ProofBench, o DeepSeekMath‑V2 atingiu 99% de sucesso em provas formais, superando com folga o Gemini DeepThink, do Google, que obteve 89%.
A supremacia chinesa no ecossistema open source
O lançamento do DeepSeekMath‑V2 chega em um momento estratégico: a China finalmente ultrapassou os Estados Unidos em participação global no mercado de IA de código aberto.
Um estudo conjunto do MIT e Hugging Face, divulgado no fim de novembro, revelou que 17% dos downloads mundiais de modelos abertos vieram de projetos chineses, superando a participação americana de 15,8%.
Essa virada de jogo tem dois protagonistas principais: a própria DeepSeek e a série Qwen, modelo open source desenvolvido pela Alibaba.
Ambos consolidam a percepção de que a inteligência artificial aberta pode florescer fora dos grandes polos tradicionais, ao unir inovação técnica, filosofia colaborativa e impacto global.
💡 Ao tornar público não apenas os resultados, mas a estrutura interna de seu modelo, a DeepSeek mostra que a próxima grande revolução em IA pode vir não das respostas certas, mas das provas bem construídas.
O DeepSeekMath‑V2 é mais que um modelo matemático, é um lembrete de que transparência e rigor lógico ainda importam, e talvez sejam eles o verdadeiro caminho para uma IA mais confiável e humana.
