Principais destaques:
- Modelos de IA com pesos abertos agora levam cerca de seis meses para atingir o desempenho dos modelos proprietários.
- O avanço foi acelerado por novos sistemas de raciocínio, com destaque para o DeepSeek R1.
- A mudança pressiona laboratórios fechados a competir menos em performance bruta e mais em ecossistema e recursos avançados.
A distância que separava modelos proprietários de inteligência artificial e alternativas abertas caiu drasticamente.
Segundo uma análise recente do The ATOM Project, modelos abertos já conseguem alcançar desempenho de ponta em aproximadamente seis meses após o lançamento de soluções fechadas. Em 2024, esse intervalo ainda variava entre um ano e um ano e meio.
Essa aceleração é vista como um marco na democratização da IA avançada. Capacidades que antes ficavam restritas a grandes laboratórios agora se espalham rapidamente pelo ecossistema aberto, permitindo que desenvolvedores e empresas menores trabalhem com modelos cada vez mais competitivos.
O impacto do DeepSeek R1 no cenário global
Um dos principais catalisadores dessa mudança foi o modelo de raciocínio R1, lançado no início de 2025 pelo laboratório chinês DeepSeek. O modelo chamou atenção por introduzir, no universo aberto, sistemas capazes de decompor problemas em etapas lógicas e validar suas próprias respostas.
O reconhecimento veio inclusive de líderes da indústria. Jensen Huang, CEO da Nvidia, descreveu o R1 como um avanço fundamental e um exemplo de como o raciocínio estruturado está redefinindo os modelos de código aberto. Para o setor, isso sinaliza que a inovação deixou de ser exclusividade de ambientes proprietários.
Qwen lidera adoção e redefine escala
Os dados do The ATOM Project também mostram uma liderança clara dos modelos Qwen, desenvolvidos pela Alibaba. Em dezembro de 2025, os downloads da família Qwen superaram, somados, os de várias outras organizações importantes. A linha Qwen 3 já ultrapassou a marca de 600 milhões de downloads, um número que ilustra o apetite do mercado por alternativas abertas e robustas.
Plataformas como a OpenRouter indicam que modelos de código aberto já representam cerca de um terço do uso total de IA, com soluções chinesas respondendo por quase 30% do volume semanal de tokens em determinados períodos. Esse movimento revela uma mudança estrutural na adoção global de IA, tanto em escala quanto em diversidade geográfica.
Economia da IA entra em nova fase
A convergência não é apenas simbólica. A diferença média de desempenho entre modelos abertos e proprietários caiu de mais de 17 pontos percentuais para praticamente zero em benchmarks relevantes. O DeepSeek V3, por exemplo, alcançou paridade com modelos fechados ativando apenas uma fração de seus parâmetros totais, o que reforça ganhos de eficiência.
Até mesmo grandes laboratórios tradicionais passaram a reagir. A OpenAI lançou o GPT-OSS 120B, seu modelo de pesos abertos, enquanto os modelos Llama da Meta seguem como os mais populares do Ocidente nesse segmento. Com isso, a competição migra do desempenho puro para diferenciais como multimodalidade, janelas de contexto extensas e integração de ecossistema.
Para empresas e desenvolvedores, o cálculo mudou. A escolha entre depender de APIs proprietárias ou investir em infraestrutura própria com modelos abertos agora envolve não só custo, mas também estratégia de longo prazo em um mercado cada vez mais equilibrado.







