Mais fome, mais sede

Devido ao boom da inteligência artificial, a procura de energia e água por parte da indústria das TI está a aumentar enormemente. As ONG também receiam uma vaga de desinformação, nomeadamente sobre as alterações climáticas

Tomasz Konicz, 03.05.2024

Quanta energia consomem realmente os sistemas de inteligência artificial (IA) em expansão, especialmente os grandes modelos linguísticos como o Chat GPT ou o Gemini (antigo Bard), que já têm centenas de milhões de utilizadores? Embora seja do conhecimento geral que a procura de recursos por parte da indústria das TI está a aumentar enormemente devido ao boom da IA e que o Chat GPT e companhia têm um apetite “obsceno” por energia, de acordo com a New Yorker é actualmente quase impossível saber algo com mais precisão, uma vez que as empresas por detrás das redes neuronais artificiais simplesmente não fornecem qualquer informação sobre o consumo de eletricidade e água.

A Google, a Meta, a Microsoft e a Open AI estão a manter-se caladas. Apenas a Microsoft respondeu a um inquérito da revista tecnológica The Verge em fevereiro, afirmando que estava a desenvolver “metodologias para quantificar o consumo de energia” e a trabalhar na melhoria da eficiência dos grandes sistemas. A Open AI e a Meta, por outro lado, não responderam de todo.

E os titãs da era da Internet, que pressentem uma nova corrida ao ouro, também não têm de o fazer. O sector continua a operar numa zona cinzenta do ponto de vista jurídico, semelhante à fase em que – na ausência de regulamentação legal – a Internet foi efectivamente esquadrinhada para efeitos de acumulação de dados, a fim de treinar sistemas de IA, utilizando material protegido por direitos de autor. Na UE, os requisitos legais para determinar o consumo de recursos deverão entrar em vigor no início de 2026, no âmbito da Lei Europeia da IA. Nos EUA, foi apresentado ao Congresso em janeiro um projecto de lei semelhante, que obrigaria as empresas de IA a divulgar o “consumo de energia, o consumo de recursos e outros impactos” das suas redes neuronais durante o “ciclo de vida do sistema”.

Como o sector está envolto em silêncio, temos de nos basear em estimativas e análises externas. De acordo com estudos de 2022, as tecnologias da informação e da comunicação foram responsáveis por 2,1 a 3,9% das emissões globais de gases com efeito de estufa, o que equivale aproximadamente às emissões do tráfego aéreo. A isto acresce a procura de eletricidade dos sistemas de IA, que deverá aumentar para 134 terawatts-hora até 2027 – o que equivale aproximadamente ao consumo dos Países Baixos. No início deste ano, a Agência Internacional da Energia (AIE) publicou as suas estimativas sobre o consumo de energia da indústria das criptomoedas e da IA, que, em conjunto, já eram responsáveis por cerca de dois por cento do consumo mundial de energia em 2022, devendo esta quota duplicar até 2026.

A necessidade de água para arrefecimento corresponde ao consumo anual da Dinamarca

Há também o elevado consumo de água necessária para arrefecer os centros de dados. Prevê-se que o consumo anual de água das redes neuronais aumente para 6,6 mil milhões de metros cúbicos até 2027, o que corresponderia ao consumo de água da Dinamarca. Durante uma “conversa” com o GPT-3, em que são respondidas entre dez e 50 perguntas, evapora-se cerca de meio litro de água. Recorde-se que dois mil milhões de pessoas em todo o mundo não têm acesso regular a água potável e 771 milhões de cidadãos do mundo não conseguem sequer cobrir as suas necessidades básicas de forma fiável. Para treinar o GPT-3 da Microsoft com os seus 175 mil milhões de neurónios artificiais para uma nova tarefa, utilizando quantidades gigantescas de dados, é necessário evaporar até 700 000 litros de água de refrigeração.

O consumo de eletricidade para uma única “sessão de treino” é equivalente ao consumo anual de 130 agregados familiares nos EUA. A fase de aprendizagem dos grandes modelos linguísticos é considerada particularmente intensiva em termos energéticos, mas as operações quotidianas, como as consultas, também se caracterizam por um elevado consumo de computação e energia. Uma simples consulta de pesquisa respondida por um modelo linguístico de grande dimensão consome cerca de 30 vezes mais energia do que a pesquisa habitual no Google. A Microsoft já integrou o seu sistema de IA no seu motor de busca Bing como “copiloto”. Se a Google realizasse algo semelhante para o seu motor de busca, com os seus nove mil milhões de pesquisas diárias, seria ultrapassado o consumo de energia da Irlanda.

O facto é que os grandes modelos linguísticos são simplesmente ineficientes para muitas tarefas. Isto aplica-se não só às consultas de pesquisa, mas também ao bem conhecido reconhecimento de voz, que tem sido bem gerido durante anos com programas como o Dragon Naturally Speaking, mesmo em computadores mais fracos. No entanto, os grandes modelos de voz, como o Whisper da Open AI, disponível gratuitamente, simplesmente não são utilizáveis num PC doméstico, mesmo com CPUs potentes, devido aos longos tempos de computação de cerca de um minuto. Só o suporte de placas gráficas permite obter resultados semelhantes aos do reconhecimento de voz clássico – o que aumenta facilmente o consumo de energia do computador para dez vezes.

Placas gráficas utilizadas para outros fins

A indústria da IA espera poder compensar uma grande parte do rápido aumento do consumo de energia através de inovações técnicas e melhorias de eficiência. Os processadores e as placas gráficas do fabricante em expansão Nvidia, que atualmente são utilizados principalmente para cálculos de IA, não foram realmente previstos para esta tarefa – estão a ser utilizados indevidamente, por assim dizer. Empresas como a Nvidia estão a trabalhar para adaptar cada vez mais o seu “silício” aos requisitos de grandes modelos linguísticos, que não necessitam de cálculos precisos, uma vez que operam com probabilidades; no entanto, os conceitos correspondentes ainda estão na fase de investigação básica.

Além disso, a indústria informática em geral está a atingir lentamente os seus limites físicos, uma vez que a largura da estrutura dos seus chips de silício, medida em nanómetros, não pode ser reduzida ad infinitum. Quanto mais pequena for a largura da estrutura, mais eficiente é a unidade de computação. As larguras de estrutura têm vindo a diminuir todos os anos e o fabricante taiwanês TSMC espera poder construir uma fábrica de chips de um nanómetro até 2030, graças a enormes investimentos. Os computadores quânticos, nos quais a Google e a IBM estão a trabalhar afincadamente, permitiriam um verdadeiro salto tecnológico, mas ainda não se sabe quando serão concretizados ou mesmo quando atingirão a maturidade no mercado.

A margem de manobra física para aumentar a eficiência é, por conseguinte, limitada, o que fará explodir o consumo de energia da indústria da IA em plena crise climática. Em março, uma aliança de organizações ambientais e não governamentais alertou para o rápido aumento do consumo de energia e não só das redes neuronais. A IA não salvará o planeta, mas queimará enormes quantidades de energia e gerará uma vaga de “desinformação sobre as alterações climáticas”, disse ao Guardian um porta-voz da ONG Friends of the Earth, que faz parte da coligação Climate Action Against Disinformation.

O crescimento da indústria informática está a ultrapassar largamente os seus ganhos de eficiência. O tempo de funcionamento das centrais eléctricas alimentadas a carvão nos Estados Unidos já foi prolongado devido à crescente procura de eletricidade por parte dos centros de dados, segundo o Guardian. Os grupos ambientalistas também criticaram as garantias dadas pela indústria da IA de que a utilização dos seus produtos conduziria a uma redução das emissões de gases com efeito de estufa. Num relatório publicado em 2023, a Google afirmou que a utilização da IA poderia reduzir as emissões de gases com efeito de estufa em até dez por cento até 2030. Os Friends of the Earth alertaram que “não se deve acreditar neste exagero”. No entanto, é provável que a expansão da indústria da IA continue mesmo durante a actual crise climática, devido à compulsão de valorizar o capital, a menos que lhe sejam impostos limites externos, através de intervenção ou por força da natureza.

Original “Mehr Hunger, mehr Durst” in konicz.info, 24.04.2024. Antes publicado em “Jungle World”, 18.04.2024.Tradução de Boaventura Antunes

https://jungle.world/artikel/2024/16/kuenstliche-intelligenz-energieverbrauch-klimawandel-mehr-hunger-mehr-durst
Nach oben scrollen