Anthropic vai treinar o Claude com suas conversas: o que muda para os usuários

Renê Fraga
4 min de leitura

✨ Principais destaques:

  • Treinamento com dados reais: a Anthropic anunciou que passará a usar conversas dos usuários para melhorar o Claude.
  • Será possível optar por não compartilhar seus dados, tanto no cadastro quanto nas configurações.
  • Retenção de dados ampliada: quem aceitar terá suas conversas armazenadas por até cinco anos.

A Anthropic, empresa por trás do chatbot Claude, anunciou uma mudança significativa em sua política de privacidade e termos de uso.

A partir de agora, as conversas dos usuários poderão ser utilizadas para treinar e aprimorar o modelo de inteligência artificial.

Essa decisão marca uma virada importante na forma como a companhia lida com dados, já que até então o Claude não era treinado com interações diretas dos usuários, a menos que houvesse envio de feedback voluntário.

A novidade traz tanto oportunidades quanto preocupações: de um lado, a promessa de um Claude mais inteligente e seguro; de outro, o debate sobre privacidade e controle de informações pessoais.

Como funciona a coleta e o opt-out

Para novos usuários, a escolha será apresentada já no momento do cadastro. Quem já utiliza o Claude verá um pop-up com a opção de aceitar ou recusar o uso de suas conversas para treinamento.

O aviso aparece como “Atualizações nos Termos e Políticas de Consumo” e inclui um botão chamado “Você pode ajudar a melhorar o Claude”.

Ao desmarcar essa opção, o usuário impede que suas interações sejam usadas para treinar o modelo.

Além disso, é possível mudar de ideia a qualquer momento: basta acessar as Configurações > Privacidade e desativar a função “Ajudar a melhorar o Claude”.

O prazo para tomar essa decisão é 28 de setembro de 2025. Quem não escolher até lá, não poderá continuar usando o serviço.

O que muda na retenção de dados

Outro ponto importante é o tempo de armazenamento das conversas. Antes, a Anthropic mantinha os dados por apenas 30 dias.

Agora, para quem aceitar o uso no treinamento, as interações poderão ser guardadas por até cinco anos.Vale destacar que conversas deletadas não serão usadas para treinar o modelo.

Já para quem optar por não compartilhar dados, a política de 30 dias continua valendo.A empresa também afirma que utiliza uma combinação de ferramentas automáticas e processos internos para filtrar informações sensíveis, garantindo que nada seja repassado a terceiros.

Por que a Anthropic está fazendo isso?

Segundo a própria companhia, a mudança tem dois objetivos principais:

  1. Tornar o Claude mais útil e poderoso, aprendendo com interações reais.
  2. Reforçar a segurança, criando barreiras mais eficazes contra usos maliciosos, como golpes e abusos.

A atualização vale para todos os planos do Claude, Free, Pro e Max, mas não se aplica a serviços corporativos, como Claude for Work ou Claude for Education, que seguem regras contratuais próprias.

Essa decisão coloca a Anthropic em linha com outras empresas de IA que já utilizam dados de usuários para treinar seus modelos.

No entanto, a transparência e a possibilidade de optar por não participar são pontos que podem gerar mais confiança entre os usuários.

Seguir:
Renê Fraga é fundador e editor-chefe do Eurisko, ecossistema editorial independente dedicado à inteligência artificial, código aberto, tecnologia e cultura digital. Atuando com projetos online desde 1996, escreve há mais de 20 anos sobre tecnologia e inovação, acompanhando a evolução da internet e o impacto das novas tecnologias na forma como vivemos, trabalhamos e pensamos.
Nenhum comentário