Criar fotos usando o ChatGPT ou fazer pesquisas pelo Perplexity são atividades custosas — ao menos para o meio ambiente. Embora pareçam tarefas simples, os prompts de IA podem consumir de 0,3 a 3 watt-horas (Wh) de eletricidade, com o consumo mais eficiente, de modelos como o GPT-4o, utilizando 0.3 Wh por consulta. Isso pode parecer pouco individualmente, mas, se os cerca de 400 milhões de usuários semanais da IA da OpenAI fizerem ao menos uma consulta por dia, o consumo aumenta para um total de 952.000 kWh por semana — comparável ao funcionamento contínuo de uma geladeira por quase 3 mil anos.
Para Joanna Stern, colunista-sênior de tecnologia do Wall Street Journal, uma visita a um data center da Equinix em Ashburn, Virgínia, levantou uma reflexão crucial sobre o consumo de energia da IA. Durante a visita, Stern teve uma oportunidade rara de observar um "SuperPod" com GPUs Nvidia H100, o poder por trás de muitas operações de inteligência artificial. Ao analisar esses centros de dados, ela percebeu que, além da grande quantidade de eletricidade consumida pelas GPUs, esses sistemas também exigem uma quantidade substancial de água para resfriamento, o que coloca ainda mais pressão sobre o meio ambiente.
Stern descreveu a sensação de estar diante de um exército de máquinas famintas por energia, que alimentam as interações digitais de milhões de usuários, com o consumo se multiplicando a cada comando dado. Segundo ela, em Ashburn, uma região onde os data centers estão em constante expansão, o consumo de energia desses centros tem o potencial de se tornar um dos maiores desafios ambientais das próximas décadas.
A necessidade de transparência
Stern aponta que, da visita, ficou uma conclusão: os consumidores precisam de mais transparência sobre o consumo de energia gerado pelas ferramentas de IA usadas diariamente. Empresas como Google, Microsoft, e Meta têm se mostrado reticentes ao fornecer dados claros sobre quanto energia suas plataformas consomem para processar as interações de seus usuários.
A OpenAI, por exemplo, revelou que uma consulta típica no ChatGPT consome cerca de 0.34 watt-horas, o equivalente a manter uma lâmpada de alta eficiência acesa por alguns minutos. Mas essa média é apenas para consultas simples, e o consumo pode aumentar conforme a complexidade da tarefa.
Uma pesquisa online simples, por exemplo, consome muito menos energia, cerca de 0.03 Wh, fazendo com que os prompts de IA gastem entre 10 a 100 vezes mais. E, quando se trata de respostas mais longas ou complexas, como a criação de um e-mail de 100 palavras, o consumo de energia pode chegar a 140 Wh (0.14 kWh), equivalente a quatro vezes o que seria necessário para um simples prompt de texto, segundo estimativas do The Washington Post e da Universidade da Califórnia, Riverside.
E a criação de imagens ou vídeos com IA consome ainda mais energia. Gerar vídeos de 6 segundos pode consumir até 110 Wh, um valor que começa a se aproximar do consumo necessário para cozinhar uma refeição simples em uma churrasqueira elétrica.
Por que as empresas precisam ser mais transparentes
Além do impacto energético direto, é importante considerar o efeito que o crescimento exponencial do uso da IA pode ter no futuro. A demanda por energia vai aumentar, não apenas pela maior utilização de IA generativa por parte dos usuários, mas também pelo número crescente de data centers que devem ser criados para atender a essa demanda.
Joanna Stern, em sua análise, sugere que as empresas de tecnologia não podem mais esconder os dados sobre o consumo de energia. A falta de informações claras impede que os consumidores façam escolhas mais informadas, segundo a especialista. Para isso, as empresas devem ser responsáveis e divulgar de maneira acessível quanto energia suas ferramentas consomem, para que todos, desde os usuários até os governos, possam agir em busca de soluções mais sustentáveis.
Sasha Luccioni, uma das principais pesquisadoras da área de IA e clima, também destaca que, enquanto a eficiência energética dos modelos de IA tem melhorado, o aumento da demanda por esses sistemas pode levar a um aumento no impacto ambiental. Ela ressalta que a questão central não é apenas o quanto energia os modelos consomem durante seu treinamento, mas também o consumo contínuo ao longo de sua vida útil, especialmente quando esses modelos são implementados em larga escala.
Segundo ela, "o treinamento de um modelo ocorre uma vez, mas sua implementação se estende por um bom tempo", o que faz com que a quantificação da energia usada por consulta ou por dia seja uma ferramenta extremamente valiosa. Para ela, essa medição não só oferece um impacto imediato, mas também permite uma avaliação mais realista do consumo total de energia ao longo de semanas, meses e anos. "No longo prazo, o impacto realmente se acumula", disse Luccioni ao Business Insider no final de 2024.
Luccioni está comprometida com a criação de ferramentas e metodologias que ajudem a entender melhor quanto de energia é realmente necessária para executar modelos populares como GPT-4 e outros. Um de seus projetos mais recentes, realizado em parceria com a Organização para Cooperação e Desenvolvimento Econômico (OCDE), visa criar um padrão de eficiência energética para modelos de IA. Ela compara essa iniciativa ao sistema Energy Star adotado para eletrodomésticos, que visa fornecer informações claras sobre o consumo energético, permitindo uma escolha mais consciente por parte dos consumidores e empresas.
"No caso da IA, seria um pouco mais difícil adotar o mesmo tipo de abordagem baseado em confiança, como a EPA fez, porque há tantas variáveis envolvidas", explica Luccioni. "Você tem que definir conjuntos de dados específicos e hardware específico para poder comparar os modelos de maneira justa."
O trabalho de Luccioni e de sua equipe também envolve a criação de ferramentas como o CodeCarbon, que permite aos desenvolvedores estimar as emissões e o uso de energia ao rodar modelos de IA, uma iniciativa que já tem sido adotada por empresas como Meta, que a utilizou para calcular as emissões de um de seus mais recentes modelos Llama.
Em um futuro onde o valor da IA poderá atingir cerca de US$ 13 trilhões até 2023, o trabalho de Luccioni ajudará a documentar o impacto dessa tecnologia nas redes elétricas e, eventualmente, no meio ambiente. Para Luccioni, entender a relação entre energia consumida e emissões de carbono será um passo essencial para reduzir o impacto ambiental da IA. "O mais importante é garantir que, à medida que essas tecnologias evoluem e se tornam cada vez mais valiosas, tenhamos os dados necessários para tomar decisões mais conscientes sobre seu uso", afirmou.