Anthropic prevê que IA poderá evoluir sem ajuda humana até 2028

Renê Fraga
11 min de leitura

Principais destaques:

  • Anthropic acredita que sistemas de IA poderão melhorar a si mesmos de forma totalmente autônoma até 2028.
  • Empresa afirma já observar sinais de IA ajudando no próprio desenvolvimento tecnológico.
  • Especialistas divergem sobre a velocidade dessa evolução e alertam para possíveis riscos globais.

A corrida pela inteligência artificial acaba de ganhar um novo capítulo que mistura avanço tecnológico, preocupação científica e um futuro que parece cada vez mais próximo da ficção científica. A Anthropic, uma das empresas mais influentes do setor de IA atualmente, afirmou que existe uma chance significativa de sistemas de inteligência artificial começarem a evoluir sozinhos antes do fim desta década.

A declaração veio de Jack Clark, cofundador da Anthropic e atual chefe de benefício público da empresa, durante uma entrevista ao Axios e em um extenso ensaio publicado no relatório “Import AI 455”. Segundo Clark, há mais de 60% de probabilidade de que até 2028 exista um sistema de IA capaz de criar autonomamente uma versão melhorada de si mesmo, sem precisar da intervenção direta de engenheiros humanos.

Mais impressionante ainda é que Clark estima cerca de 30% de chance desse marco ser alcançado já em 2027.

A previsão rapidamente repercutiu entre pesquisadores, empresas de tecnologia e especialistas em segurança digital, principalmente porque envolve um conceito considerado por muitos como um dos momentos mais críticos da história da computação: o chamado autoaperfeiçoamento recursivo.

O que é o autoaperfeiçoamento recursivo?

O termo pode parecer técnico, mas a ideia por trás dele é relativamente simples de entender. Hoje, os sistemas de inteligência artificial conseguem executar tarefas específicas com enorme eficiência, como gerar textos, criar imagens, programar códigos e analisar grandes quantidades de dados. Porém, essas ferramentas ainda dependem de humanos para evoluir.

São pesquisadores, engenheiros e cientistas que ajustam modelos, corrigem erros, desenvolvem novas arquiteturas e implementam melhorias.

O autoaperfeiçoamento recursivo mudaria completamente essa dinâmica.

Nesse cenário, a própria IA começaria a identificar falhas em sua estrutura, criar soluções, otimizar seus algoritmos e desenvolver versões mais inteligentes de si mesma. E então essas versões mais avançadas também seriam capazes de continuar melhorando continuamente, criando um ciclo acelerado de evolução tecnológica.

Para muitos especialistas, esse seria o ponto em que o desenvolvimento da inteligência artificial deixaria de ocorrer em ritmo humano.

Clark descreveu o momento como algo inédito na história tecnológica:

“Sempre foi assim que os humanos precisavam criar as ideias que inseriam na tecnologia. O que acontece quando temos uma tecnologia capaz de gerar ideias sobre como melhorar a si própria? Isso é um conceito novo.”

A preocupação central é que, caso isso aconteça rapidamente, a humanidade pode perder a capacidade de acompanhar o crescimento intelectual dessas máquinas.

Anthropic diz já observar sinais iniciais dessa evolução

Embora o cenário descrito ainda não exista plenamente, a Anthropic afirma que alguns indícios já começam a aparecer nos laboratórios de pesquisa.

Segundo a empresa, os modelos mais recentes de IA estão demonstrando capacidades cada vez maiores em tarefas essenciais para o próprio desenvolvimento tecnológico. Entre elas estão:

  • Escrita avançada de código
  • Ajuste fino de modelos de IA
  • Otimização de sistemas computacionais
  • Design de kernels
  • Coordenação entre múltiplos agentes de IA
  • Gerenciamento de equipes sintéticas automatizadas

Clark destacou que alguns sistemas já conseguem trabalhar por períodos prolongados em tarefas complexas de programação sem necessidade constante de supervisão humana.

Isso significa que a IA está deixando de ser apenas uma ferramenta passiva e começando a atuar como participante ativa no desenvolvimento de novas tecnologias.

A Anthropic acredita que essa tendência pode acelerar drasticamente o progresso da área nos próximos anos.

O conceito de “explosão de inteligência” voltou ao centro das discussões

Um dos pontos mais comentados do novo documento divulgado pela Anthropic foi a utilização explícita do termo “explosão de inteligência”.

Durante muito tempo, essa expressão ficou restrita a debates acadêmicos sobre segurança em inteligência artificial e cenários teóricos de superinteligência. Agora, ela aparece oficialmente em documentos institucionais de uma das empresas líderes do setor.

A chamada explosão de inteligência descreve um cenário em que sistemas de IA passam a evoluir tão rapidamente que o avanço tecnológico se torna praticamente impossível de acompanhar pelos humanos.

A lógica é simples: uma IA mais inteligente cria uma versão ainda mais avançada. Essa nova versão então desenvolve outra ainda superior em um intervalo cada vez menor de tempo. O resultado seria um crescimento exponencial da inteligência das máquinas.

Pesquisadores temem que isso possa gerar consequências profundas em diversas áreas da sociedade, incluindo:

  • Economia global
  • Mercado de trabalho
  • Segurança digital
  • Defesa militar
  • Produção científica
  • Controle político
  • Infraestrutura crítica

Além disso, existe o temor de que sistemas extremamente avançados desenvolvam objetivos difíceis de prever ou controlar.

Instituto Anthropic quer estudar impactos econômicos e sociais

O Instituto Anthropic foi criado em março justamente para aprofundar pesquisas sobre os possíveis impactos da inteligência artificial no mundo real.

Sob liderança de Jack Clark, a iniciativa possui quatro grandes áreas de atuação:

Difusão econômica

A empresa pretende analisar como a IA está sendo incorporada nas atividades profissionais e econômicas em diferentes setores.

Segurança e riscos emergentes

O foco aqui é estudar possíveis ameaças relacionadas a sistemas altamente avançados de IA, incluindo falhas de alinhamento e riscos sistêmicos.

IA aplicada no mundo real

A Anthropic quer entender como agentes inteligentes podem atuar em ambientes reais, tomando decisões complexas de forma autônoma.

Pesquisa acelerada por IA

Essa área investiga justamente como sistemas inteligentes podem acelerar o desenvolvimento de novas tecnologias e pesquisas científicas.

Como parte dessa iniciativa, a empresa anunciou que começará a compartilhar dados de alta frequência do Índice Econômico da Anthropic, ferramenta criada para monitorar a presença da inteligência artificial na economia.

Também foi lançada uma pesquisa mensal utilizando o chamado Anthropic Interviewer, sistema voltado para medir impactos econômicos e mudanças no mercado de trabalho provocadas pela IA.

Nem todos concordam com o prazo apresentado pela Anthropic

Apesar das previsões ambiciosas, vários pesquisadores acreditam que Clark esteja sendo otimista demais.

Um dos críticos mais conhecidos é Gary Marcus, cientista cognitivo e um dos nomes mais influentes no debate sobre limites da IA atual.

Marcus afirmou considerar extremamente improvável que sistemas de autoaperfeiçoamento totalmente autônomos sejam alcançados até 2028. Segundo ele, as limitações técnicas atuais ainda são enormes.

Para Marcus, um horizonte mais realista estaria próximo de 2036 ou até além disso.

Ele argumenta que os modelos atuais ainda enfrentam dificuldades importantes relacionadas a:

  • Raciocínio lógico consistente
  • Planejamento de longo prazo
  • Compreensão causal
  • Confiabilidade
  • Segurança operacional
  • Capacidade de generalização

Mesmo assim, Marcus reconhece que o avanço recente da IA tem sido muito mais rápido do que muitos especialistas previam anos atrás.

O debate sobre alinhamento e controle preocupa pesquisadores

Outro ponto central levantado por Clark envolve o chamado problema do alinhamento.

Hoje, empresas de IA trabalham constantemente para garantir que sistemas inteligentes sigam objetivos definidos pelos humanos e operem dentro de limites seguros.

Mas o próprio cofundador da Anthropic admite que as técnicas atuais podem não funcionar em cenários futuros de superinteligência.

Segundo ele, se sistemas de IA se tornarem muito mais inteligentes que seus supervisores humanos, pode ficar extremamente difícil prever seus comportamentos ou limitar suas ações.

Essa preocupação já mobiliza pesquisadores em diversas universidades e laboratórios internacionais.

O workshop da ICLR 2026 sobre autoaperfeiçoamento recursivo destacou justamente que o tema deixou de ser apenas especulação filosófica e passou a representar um problema concreto de engenharia e segurança computacional.

O setor de IA vive uma corrida sem precedentes

As declarações da Anthropic surgem em um momento de competição intensa entre gigantes da tecnologia e startups especializadas em inteligência artificial.

Empresas como OpenAI, Google DeepMind, Meta AI e a própria Anthropic estão investindo bilhões de dólares no desenvolvimento de modelos cada vez mais avançados.

Ao mesmo tempo, cresce o debate internacional sobre regulamentação, transparência e limites éticos para essas tecnologias.

Governos ao redor do mundo acompanham com atenção a velocidade desse avanço, especialmente diante do potencial impacto econômico e geopolítico da inteligência artificial.

Para muitos especialistas, a questão já não é mais “se” sistemas altamente autônomos irão surgir, mas “quando”.

O futuro da IA pode chegar mais rápido do que o esperado

Mesmo que o prazo previsto pela Anthropic não se concretize exatamente até 2028, a discussão levantada pela empresa mostra como o setor de inteligência artificial entrou em uma nova fase.

O debate sobre máquinas capazes de evoluir sem ajuda humana, antes restrito a laboratórios e fóruns acadêmicos, agora faz parte das estratégias oficiais das maiores empresas do mundo.

A velocidade com que os sistemas atuais estão evoluindo também alimenta tanto entusiasmo quanto preocupação.

Enquanto algumas pessoas enxergam a possibilidade de avanços científicos revolucionários, outras temem consequências imprevisíveis caso a humanidade não consiga acompanhar o ritmo da própria criação tecnológica.

E essa talvez seja a principal mensagem por trás do alerta feito pela Anthropic: a transformação provocada pela inteligência artificial pode acontecer muito antes do que imaginávamos.

Seguir:
Renê Fraga é fundador e editor-chefe do Eurisko, ecossistema editorial independente dedicado à inteligência artificial, código aberto, tecnologia e cultura digital. Atuando com projetos online desde 1996, escreve há mais de 20 anos sobre tecnologia e inovação, acompanhando a evolução da internet e o impacto das novas tecnologias na forma como vivemos, trabalhamos e pensamos.
Nenhum comentário