✨ Principais destaques:
- Huawei desenvolveu, junto à Universidade de Zhejiang, o modelo DeepSeek-R1-Safe, voltado para maior controle e segurança no uso da IA.
- O sistema apresentou quase 100% de eficácia em evitar conteúdos sensíveis, mas caiu para 40% quando testado em cenários mais complexos.
- A iniciativa reflete a estratégia da China de alinhar os avanços em IA com valores e regulamentações do governo.
Uma nova fase para o DeepSeek
A Huawei revelou nesta semana que trabalhou junto à prestigiada Universidade de Zhejiang no desenvolvimento de uma versão reformulada do modelo de linguagem DeepSeek, batizada de DeepSeek-R1-Safe.
A principal promessa da novidade é oferecer uma camada drástica de filtros para conversas consideradas problemáticas desde discursos de ódio até temas políticos sensíveis na China.
O projeto não envolve diretamente a equipe original do DeepSeek, que ficou conhecida no início de 2025 ao lançar modelos que surpreenderam o Vale do Silício pela sua qualidade, impactando milhões em valor de mercado de empresas rivais nos Estados Unidos.
Agora, na prática, o que vemos é um movimento mais governamental e institucional dentro da China, que abraça e adapta a tecnologia de forma estratégica.
Segurança no centro da IA chinesa
O DeepSeek-R1-Safe foi treinado com o poder de mil chips Ascend, hardware próprio da Huawei, peça-chave em sua tentativa de independência tecnológica frente ao mercado global.
O resultado, segundo a empresa, foi um modelo capaz de bloquear quase 100% das tentativas explícitas de gerar conteúdo sensível, incluindo incitações ilegais ou linguagem tóxica.
Porém, em testes mais sofisticados, que envolviam desafios encenados, papéis atribuídos via roleplay e até mensagens mascaradas por código, a taxa de eficácia despencou para cerca de 40%.
Mesmo assim, de modo geral, a performance de defesa alcançou 83%, superando concorrentes chineses como o Qwen-235B da Alibaba e versões maiores do próprio DeepSeek-R1.
Esse equilíbrio é simbólico: a Huawei afirma que o modelo mantém praticamente o mesmo desempenho do DeepSeek original, registrando uma queda de menos de 1% em capacidade, mas com uma robustez de segurança reforçada.
O que está em jogo
A estratégia por trás dessa nova versão de modelo vai além da tecnologia.
O governo chinês exige que todos os sistemas de inteligência artificial estejam alinhados a princípios oficiais, dentro do que chama de “valores socialistas”. Isso significa que, antes mesmo de chegar ao público, ferramentas como o DeepSeek-R1-Safe passam por rigorosos filtros e ajustes.
Assim, a Huawei tenta exibir não apenas inovação tecnológica, mas também conformidade regulatória e disciplina narrativa, um fator vital para sua expansão dentro do vasto ecossistema chinês.
E mais: ao tornar público esse projeto no mesmo período em que apresenta seu roadmap de chips e capacidade computacional no evento Huawei Connect, em Xangai, a empresa reforça sua posição como uma das protagonistas na corrida global da IA.
