Usuários estão dobrando o tempo com agentes de IA, revela estudo da Anthropic

Renê Fraga
5 min de leitura

Principais destaques

  • Sessões mais longas com agentes quase dobraram em três meses, passando de menos de 25 para mais de 45 minutos
  • Usuários experientes confiam mais, mas também interrompem o sistema com maior frequência
  • Apenas 0,8% das ações são irreversíveis, mas áreas de maior risco começam a ganhar espaço

A relação entre humanos e agentes de inteligência artificial está mudando rapidamente.

Um novo estudo divulgado pela Anthropic mostra que usuários estão permitindo que sistemas autônomos trabalhem por períodos cada vez maiores sem intervenção direta.

A pesquisa analisou milhões de interações no Claude Code e na API pública da empresa, oferecendo um retrato detalhado de como a autonomia evolui no mundo real.

O dado mais impressionante está no topo da curva de uso: no percentil 99,9, as sessões mais longas praticamente dobraram em apenas três meses.

Confiança construída na prática

Os dados mostram que, inicialmente, as sessões mais longas duravam menos de 25 minutos. Em três meses, passaram a ultrapassar 45 minutos.

O crescimento ocorreu de forma gradual, sem saltos bruscos após atualizações de modelo. Isso sugere que a confiança não depende apenas de versões mais avançadas da tecnologia, mas também da experiência acumulada pelos usuários.

Outro ponto interessante envolve a forma como a supervisão evolui. Após cerca de 750 sessões, mais de 40% dos usuários passam a aprovar automaticamente todas as ações do sistema.

Ao mesmo tempo, usuários veteranos interrompem o agente com mais frequência do que iniciantes. A taxa sobe de cerca de 5% entre novatos para 9% entre usuários experientes.

Esse comportamento pode parecer contraditório, mas revela uma mudança importante. Em vez de acompanhar cada etapa individual, usuários mais experientes monitoram o processo de maneira estratégica e intervêm apenas quando percebem necessidade.

O papel do reconhecimento de incerteza

Um dos achados mais relevantes do estudo envolve a capacidade do próprio sistema de pausar quando encontra dúvidas. O Claude Code solicita esclarecimentos em tarefas complexas mais de duas vezes mais do que os humanos o interrompem.

A empresa chama esse comportamento de reconhecimento de incerteza. Na prática, significa que o agente identifica quando pode estar diante de uma ambiguidade ou risco e opta por pedir confirmação antes de seguir adiante. Para a Anthropic, essa característica é um dos pilares de segurança do produto.

Esse dado é particularmente relevante porque indica que autonomia não significa ausência de controle, mas sim um equilíbrio dinâmico entre ação independente e checagem preventiva.

Baixo risco hoje, fronteiras mais amplas amanhã

Segundo o levantamento, cerca de 73% das interações com ferramentas ainda contam com algum tipo de supervisão humana. Além disso, apenas 0,8% das ações executadas são irreversíveis, o que reduz significativamente o potencial de danos imediatos.

A maior parte dos casos de uso está concentrada em engenharia de software, responsável por aproximadamente metade das chamadas de ferramentas feitas pelos agentes.

No entanto, novas áreas começam a ganhar espaço, como cibersegurança, finanças, saúde e sistemas de produção.

Esses setores ampliam o que a empresa chama de fronteira de risco e autonomia. Embora o cenário atual ainda seja majoritariamente de baixo risco, a expansão para ambientes mais sensíveis exige novos mecanismos de acompanhamento.

Monitoramento após o lançamento ganha força

O estudo também questiona a eficácia de regras rígidas de supervisão, como exigir aprovação humana para cada ação executada. Segundo a empresa, esse tipo de exigência pode criar fricção sem necessariamente elevar o nível de segurança.

A principal conclusão é que a autonomia não depende apenas da capacidade técnica do modelo. Ela é construída em conjunto pelo sistema, pelo usuário e pelo design do produto.

Por isso, a Anthropic defende maior investimento da indústria em monitoramento pós-implantação, acompanhando como os agentes realmente se comportam no uso cotidiano.

À medida que os agentes de IA se tornam mais presentes em tarefas complexas, o desafio deixa de ser apenas desenvolver modelos mais poderosos.

Passa a ser entender como humanos e máquinas aprendem a confiar um no outro no mundo real.

Seguir:
Renê Fraga é fundador e editor-chefe do Eurisko, ecossistema editorial independente dedicado à inteligência artificial, código aberto, tecnologia e cultura digital. Atuando com projetos online desde 1996, escreve há mais de 20 anos sobre tecnologia e inovação, acompanhando a evolução da internet e o impacto das novas tecnologias na forma como vivemos, trabalhamos e pensamos.
Nenhum comentário