DeepSeek aposta em nova técnica de memória para superar limites das GPUs

Renê Fraga
3 min de leitura

Principais destaques

  • A DeepSeek apresentou uma técnica chamada Engram para reduzir a dependência de GPUs em tarefas de IA.
  • O método introduz uma memória condicional capaz de recuperar informações sem acionar toda a rede neural.
  • A pesquisa reforça a estratégia da empresa de ganhar eficiência computacional apesar das restrições de chips impostas pelos EUA.

A DeepSeek, startup chinesa de inteligência artificial, iniciou 2026 com a publicação de um novo artigo técnico que chama atenção no setor.

O estudo descreve uma abordagem inédita para lidar com limitações de memória de alta largura de banda em GPUs, um dos principais gargalos no treinamento e na execução de grandes modelos de linguagem.

O trabalho foi coassinado pelo fundador da empresa, Liang Wenfeng, em parceria com pesquisadores da Universidade de Pequim, e aponta caminhos para reduzir custos computacionais sem comprometer desempenho.

O problema da recuperação de informação nos modelos atuais

Segundo o artigo, os grandes modelos de linguagem desperdiçam parte significativa de sua capacidade computacional ao executar operações simples de recuperação de dados.

Essas tarefas consomem profundidade sequencial que poderia ser direcionada a raciocínio mais complexo.

A proposta do Engram surge exatamente nesse ponto. Em vez de depender apenas de computação intensiva, o método cria um sistema de memória baseado em busca direta, permitindo acesso rápido a padrões já conhecidos.

Como funciona a memória condicional Engram

O Engram opera em tempo O(1), o que significa que a recuperação de informações ocorre praticamente de forma instantânea. Assim, o modelo não precisa ativar toda a rede neural para tarefas rotineiras, economizando recursos de GPU.

A técnica não substitui a computação tradicional. Ela complementa arquiteturas do tipo Mixture of Experts, já utilizadas pela DeepSeek, tratando memória e computação como recursos que podem ser escalados de maneira independente dentro do mesmo modelo.

Resultados e impacto estratégico para a DeepSeek

Em testes com parâmetros e orçamento computacional equivalentes, modelos equipados com Engram apresentaram ganhos consistentes em tarefas de conhecimento geral, raciocínio lógico, programação e matemática. Um dos destaques foi a melhoria no benchmark Multi-Query NIAH, que saltou de 84,2 para 97,0.

Os pesquisadores indicam que a alocação ideal envolve destinar cerca de 75 a 80 por cento dos parâmetros esparsos à computação, reservando o restante para o módulo de memória.

Essa eficiência é especialmente relevante para a estratégia da DeepSeek, conhecida por treinar modelos competitivos usando GPUs como a Nvidia H800, versões adaptadas às regras de exportação dos Estados Unidos.

Especialistas veem o artigo como um sinal claro do que pode estar por trás dos próximos lançamentos da empresa, incluindo o aguardado modelo V4.

Mais do que uma solução pontual, o Engram reforça a mensagem central da DeepSeek: inovar em arquitetura pode ser tão decisivo quanto ter acesso ao hardware mais avançado.

Seguir:
Renê Fraga é fundador e editor-chefe do Eurisko, ecossistema editorial independente dedicado à inteligência artificial, código aberto, tecnologia e cultura digital. Atuando com projetos online desde 1996, escreve há mais de 20 anos sobre tecnologia e inovação, acompanhando a evolução da internet e o impacto das novas tecnologias na forma como vivemos, trabalhamos e pensamos.
Nenhum comentário