Redatora
Publicado em 11 de março de 2025 às 11h35.
A demanda por chips de inferência para sistemas de inteligência artificial pode ameaçar a dominância da Nvidia no mercado de infraestrutura de IA, diz um artigo do Financial Times. Investidores têm pressionado a companhia, que viu grande valorização de suas ações, para manter o desempenho em meio à mudança nas tendências de infraestrutura.
A Nvidia detém boa parte do mercado de chips para treinamento de IA. Mas, agora a demanda tem crescido em torno de chips de inferência, processo que ocorre quando o usuário faz o seu pedido à IA.
Isso porque modelos de raciocínio em ascensão, como o R1, da DeepSeek, o GPT-o3, da OpenAI, e o Claude 3.7, da Anthropic, consomem mais recursos computacionais na fase de inferência do que no treinamento.
É em infraestrutura de inferência que os concorrentes da Nvidia, desde startups até big techs, têm concentrado seus esforços para ultrapassar a companhia de semicondutores.Analistas do Morgan Stanley estimam que mais de 75% da demanda por poder computacional em data centers dos Estados Unidos serão destinados à inferência nos próximos anos, embora destaquem a incerteza de quando exatamente a transição irá acontecer.
Analistas do banco britânico Barclays disseram que a Nvidia terá, em essência, 100% do mercado de treinamento de IA, mas apenas metade do de computação de inferência no longo prazo. Isso deixa os rivais da companhia com uma porção de US$ 200 bilhões dos gastos com chips até 2028.
Os chips de inferência têm requisitos, como grande memória e velocidade, enquanto os produtos da Nvidia têm maior força no manuseio de grandes volumes de cálculos. Isso tem aberto caminho para alternativas à empresa.
Os produtos de inferência também funcionam melhor quando alinhados a um tipo particular de modelo de IA. Grandes companhias, como Meta, Google e Amazon têm criado seus chips de inferência para atender às próprias demandas de forma customizada.