Inteligência Artificial

Dizer 'obrigada' e 'por favor' para o ChatGPT pode custar caro; entenda

OpenAI gasta até US$ 700 mil por dia para manter o ChatGPT ativo, e cada resposta consome mais do que só eletricidade: há água, dados e bilhões em jogo

IA: cada resposta do ChatGPT pode exigir o equivalente a uma garrafa de água para resfriamento (Malorny/Getty Images)

IA: cada resposta do ChatGPT pode exigir o equivalente a uma garrafa de água para resfriamento (Malorny/Getty Images)

Publicado em 19 de abril de 2025 às 15h48.

Para manter o ChatGPT funcionando, a OpenAI gasta até US$ 700 mil por dia.

A estimativa, feita por Dylan Patel, analista-chefe da empresa de pesquisa SemiAnalysis, destaca não apenas os custos financeiros, mas também o impacto ambiental dos modelos de inteligência artificial mais avançados do mundo.

Recentemente, Sam Altman, CEO da OpenAI, brincou nas redes sociais sobre o consumo de energia do ChatGPT quando os usuários são excessivamente educados em suas interações.

A piada, publicada por um usuário da plataforma X (antigo Twitter), dizia: “Fico imaginando quanto dinheiro a OpenAI já perdeu em contas de luz pelas pessoas que dizem ‘por favor’ e ‘obrigado’ aos modelos".

Em resposta, Altman disse: "dezenas de milhões de dólares bem gastos — nunca se sabe".

Apesar do tom descontraído, a preocupação com os custos — e o consumo energético — é real. Modelos como o GPT-4o são altamente sofisticados, e demandam uma grande infraestrutura computacional para entregar respostas em segundos.

Quanta energia o ChatGPT consome, de fato?

Um novo relatório do instituto Epoch AI desafia estimativas anteriores sobre o consumo energético do ChatGPT.

Segundo os pesquisadores, cada consulta feita ao modelo GPT-4o utiliza cerca de 0,3 watt-hora de energia elétrica, comparável ao consumo de um laptop em poucos minutos.

As estimativas anteriores sugeriam que uma resposta do ChatGPT consumiria cerca de 3 watt-horas. A revisão nos dados foi possível graças a avanços em hardware — como o uso das GPUs NVIDIA H100 — e a melhorias de eficiência no próprio modelo de inteligência artificial.

O estudo destaca ainda que os cálculos anteriores superestimavam a quantidade de tokens processados por consulta, o que inflacionava os resultados sobre consumo.

Embora o número por resposta pareça pequeno, o uso global em larga escala do ChatGPT — com mais de 400 milhões de usuários ativos — representa um impacto energético considerável.

Isso se soma ao custo energético elevado do treinamento dos modelos: o GPT-4o, por exemplo, demanda de 20 a 25 megawatts durante um período de três meses de treinamento.

A comparação feita pelo Epoch AI mostra que o consumo por resposta do ChatGPT é menor que o de tarefas cotidianas como dirigir um carro ou usar um aquecedor doméstico. Ainda assim, o relatório alerta que modelos mais complexos no futuro poderão exigir mais energia — especialmente se a base de usuários continuar a crescer.

A outra conta invisível: água

O resfriamento de servidores em data centers requer grandes volumes de água.

Um estudo de 2023 feito pelo Washington Post em parceria com pesquisadores da Universidade da Califórnia, mostrou que cada resposta gerada pelo ChatGPT ou Microsoft Copilot equivale ao consumo de uma garrafa de água para resfriamento dos servidores.

O impacto aumenta com a complexidade dos modelos: o GPT-3 consome quatro vezes mais água do que o estimado inicialmente, e o GPT-4 chega a consumir o equivalente a três garrafas de água para produzir 100 palavras.

O dilema entre inovação e sustentabilidade

OpenAI, Google, Microsoft e outras grandes empresas de tecnologia continuam a investir pesadamente em inteligência artificial. No entanto, a dependência de energia e recursos naturais gera debate sobre os limites do avanço tecnológico.

Mesmo com críticas, Altman defende que o investimento em energia é "bem gasto". A justificativa está no potencial da IA em áreas como saúde, educação e produtividade — setores onde a tecnologia pode gerar retorno social significativo.

Ainda assim, especialistas alertam para a necessidade de medidas sustentáveis. À medida que os modelos se tornam mais poderosos e onipresentes, a pressão por data centers mais eficientes e soluções energéticas renováveis se torna inevitável.

Acompanhe tudo sobre:Inteligência artificialOpenAIChatGPTSam Altman

Mais de Inteligência Artificial

Novos modelos de IA da OpenAI têm mais 'alucinações' que os anteriores; entenda

Autenticidade em crise: a inteligência artificial vai roubar a nossa identidade?

Como funciona a inteligência artificial do Google que quer 'traduzir' o idioma dos golfinhos

Apple vai analisar dados nos dispositivos dos clientes para melhorar sua IA