✨ Principais destaques:
- Treinamento com dados reais: a Anthropic anunciou que passará a usar conversas dos usuários para melhorar o Claude.
- Será possível optar por não compartilhar seus dados, tanto no cadastro quanto nas configurações.
- Retenção de dados ampliada: quem aceitar terá suas conversas armazenadas por até cinco anos.
A Anthropic, empresa por trás do chatbot Claude, anunciou uma mudança significativa em sua política de privacidade e termos de uso.
A partir de agora, as conversas dos usuários poderão ser utilizadas para treinar e aprimorar o modelo de inteligência artificial.
Essa decisão marca uma virada importante na forma como a companhia lida com dados, já que até então o Claude não era treinado com interações diretas dos usuários, a menos que houvesse envio de feedback voluntário.
A novidade traz tanto oportunidades quanto preocupações: de um lado, a promessa de um Claude mais inteligente e seguro; de outro, o debate sobre privacidade e controle de informações pessoais.
Como funciona a coleta e o opt-out
Para novos usuários, a escolha será apresentada já no momento do cadastro. Quem já utiliza o Claude verá um pop-up com a opção de aceitar ou recusar o uso de suas conversas para treinamento.
O aviso aparece como “Atualizações nos Termos e Políticas de Consumo” e inclui um botão chamado “Você pode ajudar a melhorar o Claude”.
Ao desmarcar essa opção, o usuário impede que suas interações sejam usadas para treinar o modelo.
Além disso, é possível mudar de ideia a qualquer momento: basta acessar as Configurações > Privacidade e desativar a função “Ajudar a melhorar o Claude”.
O prazo para tomar essa decisão é 28 de setembro de 2025. Quem não escolher até lá, não poderá continuar usando o serviço.
O que muda na retenção de dados
Outro ponto importante é o tempo de armazenamento das conversas. Antes, a Anthropic mantinha os dados por apenas 30 dias.
Agora, para quem aceitar o uso no treinamento, as interações poderão ser guardadas por até cinco anos.Vale destacar que conversas deletadas não serão usadas para treinar o modelo.
Já para quem optar por não compartilhar dados, a política de 30 dias continua valendo.A empresa também afirma que utiliza uma combinação de ferramentas automáticas e processos internos para filtrar informações sensíveis, garantindo que nada seja repassado a terceiros.
Por que a Anthropic está fazendo isso?
Segundo a própria companhia, a mudança tem dois objetivos principais:
- Tornar o Claude mais útil e poderoso, aprendendo com interações reais.
- Reforçar a segurança, criando barreiras mais eficazes contra usos maliciosos, como golpes e abusos.
A atualização vale para todos os planos do Claude, Free, Pro e Max, mas não se aplica a serviços corporativos, como Claude for Work ou Claude for Education, que seguem regras contratuais próprias.
Essa decisão coloca a Anthropic em linha com outras empresas de IA que já utilizam dados de usuários para treinar seus modelos.
No entanto, a transparência e a possibilidade de optar por não participar são pontos que podem gerar mais confiança entre os usuários.
