Redatora
Publicado em 29 de agosto de 2025 às 05h17.
A Anthropic iniciará o treinamento de seus modelos de inteligência artificial utilizando dados de usuários, incluindo transcrições de bate-papo e sessões de codificação. Os clientes da plataforma precisam autorizar o uso. As informações são do The Verge.
"Se você já é um usuário, tem até 28 de setembro de 2025 para aceitar os Termos do Consumidor atualizados e tomar sua decisão. Se optar por aceitar as novas políticas agora, elas entrarão em vigor imediatamente", destacou a empresa em comunicado nesta quinta-feira, 28.
A política se aplica a novos chats e sessões de codificação retomadas, não incluindo conteúdos antigos não continuados, e os dados poderão ser armazenados por até cinco anos.
Caso o usuário exclua uma conversa, ela não será usada para treinamentos futuros. Se o usuário optar por não fornecer seus dados para treinamento, permanecerá o período de retenção atual de 30 dias, segundo o site.
As mudanças atingem todos os planos de assinatura voltados a consumidores, como Claude Free, Pro e Max, incluindo o uso do Claude Code. Os planos comerciais, como Claude Gov, Claude for Work, Claude for Education, ou ao uso de APIs terceirizadas, como Amazon Bedrock e Vertex AI do Google Cloud não serão aplicáveis.
Novos usuários devem definir sua preferência durante o processo de inscrição do Claude. Usuários existentes receberão um pop-up para decidir, podendo adiar a escolha com o botão “Agora não”, mas serão obrigados a tomar uma decisão até a data limite.
O pop-up apresenta a mensagem “Atualizações nos Termos e Políticas do Consumidor” e inclui um botão grande “Aceitar”. A opção de permitir o uso dos dados para treinar IA vem ativada por padrão, o que pode levar alguns usuários a concordarem sem alterar a configuração.
Caso o usuário queira cancelar a participação, é possível desativar a opção no mesmo pop-up ou alterar posteriormente em Configurações > Privacidade > Configurações de Privacidade. Mudanças retroativas não são aplicadas a dados já utilizados no treinamento da IA.
A Anthropic afirmou que utiliza processos automatizados para filtrar ou ofuscar dados confidenciais e que não vende dados de usuários a terceiros.