Inteligência Artificial

Escalar não basta: cofundador da OpenAI defende retorno à pesquisa em IA

Ilya Sutskever critica aposta exclusiva em chips e dados e afirma que próximos avanços da inteligência artificial exigirão inovação conceitual e novas pesquisas

Ilya Sutskever: cofundador da OpenAI e hoje à frente da startup Safe Superintelligence (JACK GUEZ/Getty Images)

Ilya Sutskever: cofundador da OpenAI e hoje à frente da startup Safe Superintelligence (JACK GUEZ/Getty Images)

Publicado em 26 de novembro de 2025 às 12h05.

Cofundador da OpenAI e hoje à frente da startup Safe Superintelligence, o cientista da computação Ilya Sutskever defende que o setor de inteligência artificial precisa retornar à fase de pesquisa para continuar evoluindo. A avaliação foi feita em entrevista ao podcaster Dwarkesh Patel, publicada nesta terça-feira, 25.

Na última década, a estratégia dominante entre grandes empresas de tecnologia tem sido escalar modelos com mais dados e maior capacidade de processamento. Essa abordagem, segundo Sutskever, de fato produziu avanços relevantes nos últimos cinco anos. Além disso, ela é considerada de baixo risco para empresas que investem pesadamente em infraestrutura, como GPUs e data centers, ao contrário das incertezas ligadas aos gastos em pesquisa.

No entanto, ele argumenta que esse modelo está se esgotando. Os dados disponíveis são finitos e as empresas já operam com acesso a grandes quantidades de capacidade computacional. Para ele, é claro que aumentar em 100 vezes a escala traria mudanças. “Mas será que tudo vai ser transformado? Acho que não”, afirmou.

De volta à pesquisa

Na avaliação de Sutskever, a próxima fase da IA dependerá mais de inovação conceitual do que de força bruta. Ele reconhece que o uso de computação seguirá essencial, mas defende que a pesquisa voltará a ter papel central na definição de como utilizá-la de forma eficiente.

Um dos maiores desafios, segundo ele, será desenvolver modelos capazes de generalizar com mais eficácia – ou seja, aprender com poucos exemplos e aplicar o aprendizado em cenários distintos do treinamento, algo que humanos fazem com facilidade. “É muito evidente que esses modelos generalizam muito pior que as pessoas. Isso parece ser um problema fundamental”, disse.

A entrevista ocorre em um momento no qual a teoria predominante no setor — as chamadas “leis da escala”, segundo a qual mais chips e mais dados geram modelos mais potentes — ainda é defendida como válida por empresas como Google e Nvidia, desenvolvedoras, respectivamente, de TPUs e GPUs para treinar e rodar IAs.

Paralelamente, startups focadas em aplicações físicas ou descobertas científicas com IA, como Prometheus, Periodic Labs, Reflection AI e Thinking Machines Lab, também estão ganhando espaço.

Acompanhe tudo sobre:Inteligência artificialOpenAIChipsData centerStartupsPesquisa

Mais de Inteligência Artificial

Huang sobre gestores da Nvidia que limitam uso de IA: 'vocês estão malucos?'

A HP já fez a conta para cortar empregos e usar IA: US$ 1 bi em economia

Google volta ao topo: a gigante que hesitou na IA está rumo aos US$ 4 tri

Nvidia nega boato sobre 'maior fraude contábil da história da tecnologia'