Principais destaques
- Anthropic afirma que empresas chinesas criaram 24 mil contas falsas para extrair dados do Claude
- Mais de 16 milhões de interações teriam sido usadas para treinar sistemas rivais de IA
- Caso levanta alerta de segurança nacional e amplia tensão no setor de inteligência artificial
A disputa global pela liderança em inteligência artificial ganhou um novo capítulo. A Anthropic declarou que três empresas chinesas teriam conduzido uma operação em larga escala para copiar capacidades do seu chatbot Claude.
Segundo a companhia, cerca de 24 mil contas fraudulentas foram utilizadas para consultar o sistema milhões de vezes com o objetivo de extrair conhecimento técnico e acelerar o desenvolvimento de modelos próprios.
As empresas citadas são a DeepSeek, Moonshot AI e MiniMax. De acordo com a Anthropic, juntas elas teriam realizado mais de 16 milhões de interações com o Claude. A MiniMax responderia por cerca de 13 milhões dessas consultas, enquanto a Moonshot AI teria feito mais de 3,4 milhões e a DeepSeek aproximadamente 150 mil.
Como a extração teria sido realizada
A Anthropic explicou que identificou a atividade suspeita ao cruzar dados como endereços IP, padrões de requisição e infraestrutura utilizada. Esses elementos destoavam do comportamento típico de usuários comuns.
O alvo das consultas não eram perguntas simples ou interações cotidianas. Segundo a empresa, os pedidos estavam focados em tarefas complexas, como raciocínio avançado, programação e uso de ferramentas especializadas do Claude.
Esse tipo de prática é conhecido como destilação. Trata-se de um método no qual um modelo menor aprende a partir das respostas geradas por um sistema mais sofisticado. A técnica é comum dentro das próprias empresas de IA, mas a Anthropic afirma que, neste caso, o uso teria sido não autorizado e feito em escala industrial para encurtar anos de pesquisa.
O que está em jogo além da tecnologia
A empresa levou o assunto para além da disputa comercial e classificou o episódio como uma questão de segurança nacional. Segundo a Anthropic, modelos construídos por meio de destilação em larga escala podem não preservar os mesmos mecanismos de segurança presentes nos sistemas originais.
Na visão da companhia, isso poderia permitir que tecnologias avançadas fossem incorporadas a aplicações militares, de inteligência e de vigilância em países autoritários, ampliando riscos de ataques cibernéticos e campanhas de desinformação.
A Anthropic informou que compartilhou suas descobertas com autoridades do governo dos Estados Unidos e parceiros do setor privado.
Um alerta que ecoa no setor de IA
O episódio não ocorre de forma isolada. A OpenAI já havia alertado recentemente o Congresso americano sobre práticas semelhantes atribuídas à DeepSeek.
No mesmo dia das revelações da Anthropic, o Grupo de Inteligência de Ameaças do Google afirmou ter identificado tentativas de destilação contra seus modelos Gemini, envolvendo mais de 100 mil prompts destinados a reproduzir capacidades avançadas de raciocínio.
O caso reforça o clima de competição intensa entre Estados Unidos e China na corrida pela liderança em inteligência artificial. Em um cenário em que chips avançados são apenas parte da equação, a destilação surge como uma rota alternativa para reduzir a distância tecnológica entre laboratórios.
Para o setor, o episódio pode representar apenas o começo de um debate mais amplo sobre proteção de modelos, regulamentação e os limites éticos na corrida global pela supremacia em IA.
