Repórter
Publicado em 27 de outubro de 2025 às 11h12.
Última atualização em 27 de outubro de 2025 às 11h13.
A Nvidia (NVDA) está perto de ganhar um novo concorrente. Isso porque a Qualcomm anunciou nesta segunda-feira, 27, que irá lançar dois chips aceleradores de inteligência artificial (IA) voltados para data centers, marcando uma mudança estratégica no seu portfólio, historicamente concentrado em conectividade sem fio e dispositivos móveis.
Os novos modelos AI200 e AI250 estão previstos para chegar ao mercado em 2026 e 2027, respectivamente. Ambos poderão ser instalados em racks completos com refrigeração líquida, um padrão já adotado por empresas como Nvidia e AMD, cujas unidades gráficas (GPUs) podem ser usadas em sistemas com até 72 chips atuando como um único computador, segundo a empresa.
Os chips da Qualcomm focarão na tarefa de inferência — ou seja, na execução de modelos já treinados — em vez do treinamento de modelos, que exige maior poder computacional.
Segundo a empresa, essa abordagem pode representar economia para provedores de serviços em nuvem, ao reduzir o custo operacional total.
Um rack completo com os chips da Qualcomm terá consumo de 160 quilowatts de energia, valor comparável aos sistemas de alto desempenho da Nvidia, segundo a empresa.
Os novos aceleradores da Qualcomm utilizarão os NPUs Hexagon, já empregados em seus chips para smartphones. A empresa afirma que suas placas de IA terão vantagem em consumo de energia, custo total de propriedade e manuseio de memória, com suporte para até 768 gigabytes por placa — capacidade superior às alternativas atuais de Nvidia e AMD.
A Qualcomm não revelou os preços dos chips, placas ou sistemas, mas confirmou uma parceria com a startup saudita Humain para abastecer data centers locais com seus chips de inferência. O acordo prevê uma infraestrutura capaz de consumir até 200 megawatts.
O setor de infraestrutura para IA deve movimentar cerca de US$ 6,7 trilhões até 2030, de acordo com estimativa da McKinsey. A entrada da Qualcomm amplia a concorrência no mercado hoje liderado pela Nvidia, que detém mais de 90% do segmento de chips para IA.
Com valor de mercado acima de US$ 4,5 trilhões, a Nvidia fornece as GPUs que alimentam modelos como o ChatGPT, da OpenAI. A própria OpenAI, no entanto, anunciou recentemente a intenção de comprar chips da AMD e até mesmo investir na empresa.
Para as big techs e empresas de inteligência artificial (IA), o mar está bom para novos investimentos nos últimos meses.
Recentemente, a Nvidia anunciou um investimento de US$ 100 bilhões na OpenAI e firmou parceria de US$ 5 bilhões com a Intel, enquanto a Microsoft diversificou sua atuação ao integrar os modelos da Anthropic no Microsoft 365 Copilot.
Nvidia e OpenAI:
A gigante dos chips investiu US$ 100 bilhões na OpenAI para consolidar sua posição na infraestrutura de IA. A previsão de retorno gira em torno de US$ 500 bilhões no longo prazo, segundo a Reuters. Analistas alertam para o risco de “economia circular” e financiamento auto-referencial entre as empresas.
Nvidia e Intel:
Com um acordo de US$ 5 bilhões, Nvidia e Intel se unem para combinar GPUs e CPUs visando data centers. A aliança pode reposicionar a Intel no mercado de IA, embora analistas apontem que a integração não resolve as deficiências competitivas da empresa.
Microsoft e Anthropic:
A Microsoft agora permite que usuários alternem entre os modelos da OpenAI e da Anthropic em seu Copilot, ampliando a flexibilidade e sinalizando possível tensão com a OpenAI.
Intel e Apple:
A Intel busca investimento estratégico da Apple para fortalecer sua divisão de fundição (Intel Foundry). A parceria é vista como uma tentativa de expandir a produção nos EUA, pressionada pelo governo americano, apesar do histórico de dificuldades entre as duas companhias.