Sabia que, cada vez que, no mês passado, pediu ao ChatGPT que criasse aquela imagem sua em versão action figure, o consumo de energia necessário para realizar essa tarefa foi equivalente ao necessário para carregar o seu smartphone? Mesmo uma simples query pode consumir até dez vezes mais energia que uma pesquisa no Google.
O sector da energia não é onde me costumo movimentar, nem a sua produção algo que por norma me ocupe a mente. Mas estes simples exemplos de consumo, num estudo da Agência Internacional de Energia, despertaram uma faísca… e libertaram a energia necessária para começar este texto. Fosse assim tão fácil alimentar a IA.
É verdade que se espera que o uso direcionado da inteligência artificial possa contribuir para métodos de produção de energia mais eficientes ou para optimizar o uso da que temos disponível. Mas… e quando cada um de nós estiver equipado com dezenas ou centenas de agentes a trabalhar por nós, 24/7?
Projeções apontam para que, até 2030, a electricidade necessária para alimentar os data centers a nível mundial mais que duplique, chegando aos 945 terawatts/hora — um valor ligeiramente superior ao consumo total de energia do Japão, num só dia. Já hoje, os data centers são responsáveis por cerca de 20% do consumo energético da Irlanda.
E se muitos jovens já usam o ChatGPT em vez de fazer uma pesquisa no Google, a verdade é que até essa pesquisa já recorre ao modelo Gemini para apresentar resultados. Para dar resposta a este novo paradigma de computação intensiva, algumas big tech estão a recorrer a reactores nucleares para alimentar os seus centros de dados.
A IA não dorme, mas a conta de luz também não. Talvez esteja na altura de usar a IA… com inteligência.