IA: cada resposta do ChatGPT pode exigir o equivalente a uma garrafa de água para resfriamento (Malorny/Getty Images)
Repórter
Publicado em 19 de abril de 2025 às 15h48.
Para manter o ChatGPT funcionando, a OpenAI gasta até US$ 700 mil por dia.
A estimativa, feita por Dylan Patel, analista-chefe da empresa de pesquisa SemiAnalysis, destaca não apenas os custos financeiros, mas também o impacto ambiental dos modelos de inteligência artificial mais avançados do mundo.
Recentemente, Sam Altman, CEO da OpenAI, brincou nas redes sociais sobre o consumo de energia do ChatGPT quando os usuários são excessivamente educados em suas interações.
A piada, publicada por um usuário da plataforma X (antigo Twitter), dizia: “Fico imaginando quanto dinheiro a OpenAI já perdeu em contas de luz pelas pessoas que dizem ‘por favor’ e ‘obrigado’ aos modelos".
Em resposta, Altman disse: "dezenas de milhões de dólares bem gastos — nunca se sabe".
tens of millions of dollars well spent--you never know
— Sam Altman (@sama) April 16, 2025
Apesar do tom descontraído, a preocupação com os custos — e o consumo energético — é real. Modelos como o GPT-4o são altamente sofisticados, e demandam uma grande infraestrutura computacional para entregar respostas em segundos.
Um novo relatório do instituto Epoch AI desafia estimativas anteriores sobre o consumo energético do ChatGPT.
Segundo os pesquisadores, cada consulta feita ao modelo GPT-4o utiliza cerca de 0,3 watt-hora de energia elétrica, comparável ao consumo de um laptop em poucos minutos.
As estimativas anteriores sugeriam que uma resposta do ChatGPT consumiria cerca de 3 watt-horas. A revisão nos dados foi possível graças a avanços em hardware — como o uso das GPUs NVIDIA H100 — e a melhorias de eficiência no próprio modelo de inteligência artificial.
O estudo destaca ainda que os cálculos anteriores superestimavam a quantidade de tokens processados por consulta, o que inflacionava os resultados sobre consumo.
Embora o número por resposta pareça pequeno, o uso global em larga escala do ChatGPT — com mais de 400 milhões de usuários ativos — representa um impacto energético considerável.
Isso se soma ao custo energético elevado do treinamento dos modelos: o GPT-4o, por exemplo, demanda de 20 a 25 megawatts durante um período de três meses de treinamento.
A comparação feita pelo Epoch AI mostra que o consumo por resposta do ChatGPT é menor que o de tarefas cotidianas como dirigir um carro ou usar um aquecedor doméstico. Ainda assim, o relatório alerta que modelos mais complexos no futuro poderão exigir mais energia — especialmente se a base de usuários continuar a crescer.
O resfriamento de servidores em data centers requer grandes volumes de água.
Um estudo de 2023 feito pelo Washington Post em parceria com pesquisadores da Universidade da Califórnia, mostrou que cada resposta gerada pelo ChatGPT ou Microsoft Copilot equivale ao consumo de uma garrafa de água para resfriamento dos servidores.
O impacto aumenta com a complexidade dos modelos: o GPT-3 consome quatro vezes mais água do que o estimado inicialmente, e o GPT-4 chega a consumir o equivalente a três garrafas de água para produzir 100 palavras.
OpenAI, Google, Microsoft e outras grandes empresas de tecnologia continuam a investir pesadamente em inteligência artificial. No entanto, a dependência de energia e recursos naturais gera debate sobre os limites do avanço tecnológico.
Mesmo com críticas, Altman defende que o investimento em energia é "bem gasto". A justificativa está no potencial da IA em áreas como saúde, educação e produtividade — setores onde a tecnologia pode gerar retorno social significativo.
Ainda assim, especialistas alertam para a necessidade de medidas sustentáveis. À medida que os modelos se tornam mais poderosos e onipresentes, a pressão por data centers mais eficientes e soluções energéticas renováveis se torna inevitável.