Principais destaques
- A DeepSeek apresentou uma técnica chamada Engram para reduzir a dependência de GPUs em tarefas de IA.
- O método introduz uma memória condicional capaz de recuperar informações sem acionar toda a rede neural.
- A pesquisa reforça a estratégia da empresa de ganhar eficiência computacional apesar das restrições de chips impostas pelos EUA.
A DeepSeek, startup chinesa de inteligência artificial, iniciou 2026 com a publicação de um novo artigo técnico que chama atenção no setor.
O estudo descreve uma abordagem inédita para lidar com limitações de memória de alta largura de banda em GPUs, um dos principais gargalos no treinamento e na execução de grandes modelos de linguagem.
O trabalho foi coassinado pelo fundador da empresa, Liang Wenfeng, em parceria com pesquisadores da Universidade de Pequim, e aponta caminhos para reduzir custos computacionais sem comprometer desempenho.
O problema da recuperação de informação nos modelos atuais
Segundo o artigo, os grandes modelos de linguagem desperdiçam parte significativa de sua capacidade computacional ao executar operações simples de recuperação de dados.
Essas tarefas consomem profundidade sequencial que poderia ser direcionada a raciocínio mais complexo.
A proposta do Engram surge exatamente nesse ponto. Em vez de depender apenas de computação intensiva, o método cria um sistema de memória baseado em busca direta, permitindo acesso rápido a padrões já conhecidos.
Como funciona a memória condicional Engram
O Engram opera em tempo O(1), o que significa que a recuperação de informações ocorre praticamente de forma instantânea. Assim, o modelo não precisa ativar toda a rede neural para tarefas rotineiras, economizando recursos de GPU.
A técnica não substitui a computação tradicional. Ela complementa arquiteturas do tipo Mixture of Experts, já utilizadas pela DeepSeek, tratando memória e computação como recursos que podem ser escalados de maneira independente dentro do mesmo modelo.
Resultados e impacto estratégico para a DeepSeek
Em testes com parâmetros e orçamento computacional equivalentes, modelos equipados com Engram apresentaram ganhos consistentes em tarefas de conhecimento geral, raciocínio lógico, programação e matemática. Um dos destaques foi a melhoria no benchmark Multi-Query NIAH, que saltou de 84,2 para 97,0.
Os pesquisadores indicam que a alocação ideal envolve destinar cerca de 75 a 80 por cento dos parâmetros esparsos à computação, reservando o restante para o módulo de memória.
Essa eficiência é especialmente relevante para a estratégia da DeepSeek, conhecida por treinar modelos competitivos usando GPUs como a Nvidia H800, versões adaptadas às regras de exportação dos Estados Unidos.
Especialistas veem o artigo como um sinal claro do que pode estar por trás dos próximos lançamentos da empresa, incluindo o aguardado modelo V4.
Mais do que uma solução pontual, o Engram reforça a mensagem central da DeepSeek: inovar em arquitetura pode ser tão decisivo quanto ter acesso ao hardware mais avançado.
