Imagem: Vitória Gomez (gerado com IA)/Olhar Digital
Não é segredo que a inteligência artificial (IA) depende de uma quantidade massiva de energia elétrica para funcionar, o que, por sua vez, emite carbono. No entanto, o número exato de eletricidade consumida ainda não é devidamente quantificado pelas desenvolvedoras — e, se é, não é claramente divulgada.
Algumas estimativas já existem para tentar prever o consumo da IA. Por exemplo, um novo estudo revelou que treinar um modelo de linguagem como o GPT-3, da OpenAI, consome muito mais energia elétrica do que o uso diário do mesmo modelo, ultrapassando o consumo anual de uma centena de casas.
Leia mais:
Segundo o The Verge, especialistas dizem que os números conhecidos de consumo elétrico da IA ainda são apenas uma fração do total. Isso porque os modelos de linguagem em si variam muito e as empresas têm feito pouco para divulgar o quanto realmente consomem.
Por exemplo, em e-mail ao site, a CTO de operações e inovações em nuvem da Microsoft, Judy Priest, disse que a companhia tem investido no desenvolvimento de metodologias para quantificar o uso de energia e impacto de carbono da IA, mas não detalha como isso está sendo feito e nem números parciais.
Outra questão que dificulta as estimativas é que cada tecnologia tem um consumo diferente, inclusive dependendo da atividade. Construir um modelo do zero, treiná-lo e usá-lo no dia a dia quando já estiver pronto têm custos energéticos diferentes.
Ainda, com o avanço das tecnologias, algumas empresas podem ter desenvolvido formas de melhorar a eficiência energética, mas isso é algo que igualmente não está sendo divulgado.
Mesmo assim, há estimativas.
Um estudo de novembro de 2022 estipula que o treinamento de um modelo de linguagem grande, como o GPT-3, consome pouco menos de 1.300 megawatts-hora. A quantidade é equivalente ao consumo anual de cerca de 130 residências nos Estados Unidos ou a 1.625.000 horas assistidas na Netflix (cada hora consome 0,008 MWh de eletricidade).
O número pode ter aumentado, já que os modelos cresceram desde 2022, ou diminuído, já que é possível que as desenvolvedoras tenham otimizado o gasto energético. O estudo também afirma que o treinamento de uma IA gasta mais energia do que as atividades corriqueiras diárias.
Segundo Sasha Luccioni, pesquisadora da empresa franco-americana de IA Hugging Face, é um desafio manter as estimativas atualizadas e as empresas se tornaram cada vez mais secretas à medida que os lucros cresciam. Por exemplo, há alguns anos, a OpenAI publicava como treinava sua IA, o que já não faz mais.
Também é difícil saber exatamente quão grande cada modelo de linguagem é, contando com suas extensões e modelos subjacentes.
Pensando nisso, Luccioni e colegas publicaram um artigo em dezembro do ano passado (atualmente aguardando revisão de pares) atualizando suas estimativas.
Eles testaram 88 modelos diferentes, com abrangências diversas (por exemplo, IAs dedicadas para texto, imagens e vídeos). Em cada análise, executaram uma mesma atividade 1 mil vezes e estimaram o custo de energia.
Veja os resultados:
Pesquisadores estimam que o custo energético da IA aumentará no futuro, podendo chegar a meio por cento do consumo global de eletricidade em poucos anos.
Esta post foi modificado pela última vez em 25 de janeiro de 2025 17:15