Repórter
Publicado em 12 de agosto de 2025 às 15h50.
Última atualização em 12 de agosto de 2025 às 15h51.
A startup de inteligência artificial Anthropic anunciou nesta terça-feira, 12, um aumento de cinco vezes na chamada “context window”, ou janela de contexto, recurso que define a quantidade de informações que o modelo consegue considerar simultaneamente para gerar uma resposta. O modelo Claude Sonnet 4 passa agora a lidar com 1 milhão de tokens, unidade usada para medir blocos de texto processados por IA.
Perplexity propõe comprar navegador Chrome do Google por US$ 34,5 bilhõesSegundo a própria empresa, o novo limite permite analisar cerca de 2.500 páginas de texto — o equivalente a incluir o romance “Guerra e Paz” inteiro em uma única consulta. O avanço também amplia significativamente a capacidade de programação: de 20 mil linhas de código no limite anterior, de 200 mil tokens, para até 110 mil linhas.
No campo corporativo, a Anthropic afirma que a atualização pode facilitar a análise de centenas de documentos, dezenas de artigos científicos ou transcrições longas de reuniões comerciais sem precisar dividir os arquivos em partes menores. Esse tipo de operação, segundo Brad Abrams, líder de produto do Claude, era um dos principais gargalos para usuários corporativos.
A disputa pela ampliação da context window tornou-se um dos principais pontos de diferenciação entre modelos avançados de IA. OpenAI, Google e a própria Anthropic vêm anunciando aumentos frequentes no tamanho desse “campo de memória” para conquistar clientes em setores como tecnologia, jurídico e financeiro — áreas que dependem de grandes volumes de informação interligada.
Na prática, aumentar o número de tokens que o modelo consegue processar reduz a necessidade de prompts fracionados, nos quais o usuário precisa enviar informações em partes. Isso não apenas acelera o fluxo de trabalho, como também diminui o risco de perda de contexto e inconsistências entre respostas, um problema comum em aplicações de IA para análise de dados complexos ou código-fonte.