Inteligência Artificial

Anthropic começa a usar dados de usuários para treinar IA

Alterações nos termos de uso permitem que a empresa utilize novas transcrições de chats e sessões de codificação para aprimorar modelos de inteligência artificial

Publicado em 29 de agosto de 2025 às 05h17.

A Anthropic iniciará o treinamento de seus modelos de inteligência artificial utilizando dados de usuários, incluindo transcrições de bate-papo e sessões de codificação. Os clientes da plataforma precisam autorizar o uso. As informações são do The Verge.

"Se você já é um usuário, tem até 28 de setembro de 2025 para aceitar os Termos do Consumidor atualizados e tomar sua decisão. Se optar por aceitar as novas políticas agora, elas entrarão em vigor imediatamente", destacou a empresa em comunicado nesta quinta-feira, 28.

A política se aplica a novos chats e sessões de codificação retomadas, não incluindo conteúdos antigos não continuados, e os dados poderão ser armazenados por até cinco anos.

Caso o usuário exclua uma conversa, ela não será usada para treinamentos futuros. Se o usuário optar por não fornecer seus dados para treinamento, permanecerá o período de retenção atual de 30 dias, segundo o site.

As mudanças atingem todos os planos de assinatura voltados a consumidores, como Claude Free, Pro e Max, incluindo o uso do Claude Code. Os planos comerciais, como Claude Gov, Claude for Work, Claude for Education, ou ao uso de APIs terceirizadas, como Amazon Bedrock e Vertex AI do Google Cloud não serão aplicáveis.

Como funcionará?

Novos usuários devem definir sua preferência durante o processo de inscrição do Claude. Usuários existentes receberão um pop-up para decidir, podendo adiar a escolha com o botão “Agora não”, mas serão obrigados a tomar uma decisão até a data limite.

O pop-up apresenta a mensagem “Atualizações nos Termos e Políticas do Consumidor” e inclui um botão grande “Aceitar”. A opção de permitir o uso dos dados para treinar IA vem ativada por padrão, o que pode levar alguns usuários a concordarem sem alterar a configuração.

Caso o usuário queira cancelar a participação, é possível desativar a opção no mesmo pop-up ou alterar posteriormente em Configurações > Privacidade > Configurações de Privacidade. Mudanças retroativas não são aplicadas a dados já utilizados no treinamento da IA.

A Anthropic afirmou que utiliza processos automatizados para filtrar ou ofuscar dados confidenciais e que não vende dados de usuários a terceiros.

Acompanhe tudo sobre:Inteligência artificialTecnologia

Mais de Inteligência Artificial

O que pensa Alex Blania, um dos 100 nomes mais influentes da IA, segundo a Time

OpenAI e Anthropic avaliam modelos de IA rivais com foco em segurança e alinhamento

Morte de adolescente expõe riscos do ChatGPT para pessoas em depressão

Corpo da Siri, alma do Gemini: as lições do percalço da Apple ao reinventar um produto