Inteligência Artificial

Para liderar IA corporativa, Claude vai processar até 110 mil linhas de código de uma só vez

Aumento de cinco vezes na context window do Claude Sonnet 4 amplia “memória” da IA e acirra corrida com OpenAI e Google

André Lopes
André Lopes

Repórter

Publicado em 12 de agosto de 2025 às 15h50.

Última atualização em 12 de agosto de 2025 às 15h51.

A startup de inteligência artificial Anthropic anunciou nesta terça-feira, 12, um aumento de cinco vezes na chamada “context window”, ou janela de contexto, recurso que define a quantidade de informações que o modelo consegue considerar simultaneamente para gerar uma resposta. O modelo Claude Sonnet 4 passa agora a lidar com 1 milhão de tokens, unidade usada para medir blocos de texto processados por IA.

Perplexity propõe comprar navegador Chrome do Google por US$ 34,5 bilhões

Segundo a própria empresa, o novo limite permite analisar cerca de 2.500 páginas de texto — o equivalente a incluir o romance “Guerra e Paz” inteiro em uma única consulta. O avanço também amplia significativamente a capacidade de programação: de 20 mil linhas de código no limite anterior, de 200 mil tokens, para até 110 mil linhas.

No campo corporativo, a Anthropic afirma que a atualização pode facilitar a análise de centenas de documentos, dezenas de artigos científicos ou transcrições longas de reuniões comerciais sem precisar dividir os arquivos em partes menores. Esse tipo de operação, segundo Brad Abrams, líder de produto do Claude, era um dos principais gargalos para usuários corporativos.

A disputa pela ampliação da context window tornou-se um dos principais pontos de diferenciação entre modelos avançados de IA. OpenAI, Google e a própria Anthropic vêm anunciando aumentos frequentes no tamanho desse “campo de memória” para conquistar clientes em setores como tecnologia, jurídico e financeiro — áreas que dependem de grandes volumes de informação interligada.

O que significa ampliar a janela de contexto

Na prática, aumentar o número de tokens que o modelo consegue processar reduz a necessidade de prompts fracionados, nos quais o usuário precisa enviar informações em partes. Isso não apenas acelera o fluxo de trabalho, como também diminui o risco de perda de contexto e inconsistências entre respostas, um problema comum em aplicações de IA para análise de dados complexos ou código-fonte.

Acompanhe tudo sobre:Inteligência artificialApps

Mais de Inteligência Artificial

Perplexity propõe comprar navegador Chrome do Google por US$ 34,5 bilhões

Microsoft lança Copilot 3D, ferramenta gratuita para gerar modelos tridimensionais de imagens 2D

Microsoft enfrenta desafio com saída de CEO do GitHub, que vai voltar a ser "fundador"

Raciocínio das IAs é uma ‘miragem’, aponta estudo