Principais destaques
- DeepSeek aumenta janela de contexto de 128 mil para mais de 1 milhão de tokens
- Atualização prepara terreno para o aguardado modelo V4
- Concorrência chinesa acelera lançamentos antes do Ano Novo Lunar
A corrida global por modelos de linguagem mais poderosos ganhou um novo capítulo nesta semana.
A startup chinesa DeepSeek liberou uma atualização robusta de seu principal sistema de IA, elevando drasticamente sua capacidade de processamento de texto. A mudança amplia a janela de contexto para mais de um milhão de tokens, quase dez vezes superior ao limite anterior.
A novidade chega por meio da versão 1.7.4 do aplicativo e já sinaliza que a empresa está preparando o terreno para o lançamento do aguardado V4, previsto por analistas para meados de fevereiro, possivelmente alinhado às celebrações do Ano Novo Lunar.
Um salto expressivo na capacidade de processamento
A ampliação da janela de contexto significa que o modelo agora consegue analisar volumes massivos de informação em uma única interação. Na prática, isso permite trabalhar com livros inteiros, grandes relatórios técnicos ou bases completas de código sem precisar fragmentar os pedidos.
Além disso, a base de conhecimento foi atualizada até maio de 2025, tornando o sistema mais alinhado com eventos recentes. Em testes relatados pela imprensa especializada, o modelo chegou a se autodenominar como a versão final evolutiva da série V3, sugerindo que essa atualização pode ser a etapa definitiva antes da chegada do V4.
Arquiteturas inovadoras e desempenho competitivo
Relatórios do mercado financeiro indicam que o V4 deve trazer duas arquiteturas inéditas chamadas mHC e Engram. Essas tecnologias prometem melhorar a estabilidade durante o treinamento e reduzir o consumo de memória, dois fatores críticos no desenvolvimento de modelos de larga escala.
Analistas apontam que o desempenho da nova geração pode rivalizar com sistemas consolidados como Anthropic e OpenAI, especialmente em tarefas de programação. Benchmarks internos sugerem que a capacidade de codificação supera até mesmo modelos consagrados dessas empresas.
A expansão da janela de contexto também se torna um diferencial estratégico para adoção empresarial, já que desenvolvedores podem processar sistemas inteiros de software em um único comando.
Concorrência chinesa intensifica disputa
O movimento da DeepSeek não acontece isoladamente. A também chinesa Zhipu AI apresentou o GLM-5, modelo que utiliza arquitetura baseada na geração anterior da DeepSeek e aposta em configuração de Mistura de Especialistas com 745 bilhões de parâmetros totais.
Enquanto isso, gigantes como ByteDance e Alibaba preparam ou já lançaram novos sistemas de IA, reforçando o ritmo acelerado do setor no país. O cenário lembra uma verdadeira corrida tecnológica, com empresas disputando não apenas desempenho, mas também protagonismo internacional.
A combinação de avanços técnicos, expectativa de lançamento e movimentação do mercado financeiro indica que fevereiro pode marcar um ponto decisivo para a próxima geração de modelos de linguagem desenvolvidos na China.
