A IA é má para o ambiente?

A maioria das pessoas não pensa duas vezes quando faz uma pergunta ao ChatGPT ou resume um e-mail, mas devia. A IA está a trabalhar arduamente para nós, mas o nosso planeta está a trabalhar ainda mais. Hoje analisamos em profundidade a razão pela qual a IA, especificamente a inteligência artificial generativa, é má para o planeta.

Is AI bad for the environment? Yes, generative AI like ChatGPT is bad for the environment for many reasons from using high amounts of electricity and water to producing toxic waste.

Estamos oficialmente na era da IA generativa: As grandes empresas tecnológicas estão a lançar e a treinar os seus modelos, os centros de dados utilizados para alojar as IA estão a aumentar rapidamente e as pessoas estão a utilizar ferramentas de IA generativa em mais aspectos da vida quotidiana. Embora a IA generativa esteja a revolucionar a tecnologia, pouco se sabe sobre os efeitos a longo prazo, especificamente no ambiente. O que sabemos é que os modelos de IA generativa estão a ser rapidamente desenvolvidos e treinados e que os efeitos ambientais associados são negativos.


Resumo rápido: Como é que a IA é má para o ambiente?

  • A IA generativa utiliza enormes quantidades de energia: desde os centros de dados, passando pelo treino do modelo, até ao utilizador final que interage com a ferramenta de IA.

  • A água é necessária para construir os centros de dados e é utilizada nas operações para arrefecer os servidores de IA. O elevado consumo de água pode afetar os ambientes e os ecossistemas locais.

  • Os centros de dados produzem uma grande quantidade de resíduos electrónicos, que muitas vezes contêm substâncias tóxicas como o chumbo e o mercúrio.

  • Os microchips e o hardware utilizados para alimentar a IA são fabricados com elementos e minerais raros, que são frequentemente extraídos de forma não sustentável.

Turn ON Privacy in one click.

Porque é que a IA é má para o ambiente?

A IA generativa utiliza enormes quantidades de energia

Os centros de dados que albergam a IA generativa necessitam de grandes quantidades de eletricidade: desde a sua construção, ao treino dos modelos e ao seu funcionamento.

Embora os centros de dados já existam há muito tempo, devido ao boom da IA generativa, estão a aumentar rapidamente em número e a ser construídos. Um problema com o aumento destes centros é que a IA generativa exige muita energia.

”Um cluster de formação de IA generativa pode consumir sete ou oito vezes mais energia do que uma carga de trabalho de computação típica”

diz Noman Bashir, bolsista de computação e impacto climático do Consórcio de Clima e Sustentabilidade do MIT, pós-doutorado no Laboratório de Ciência da Computação e Inteligência Artificial e principal autor do The Impact Paper. De acordo com Bashir, a procura de centros de dados é tão elevada que não podem ser geridos de forma sustentável. Assim, por enquanto, a maior parte da energia com que funcionam provém da queima de combustíveis fósseis, o que leva a um aumento das emissões de dióxido de carbono.

A necessidade de eletricidade excessiva não se fica por aqui. Os modelos de IA têm de ser treinados e constantemente melhorados. Para tal, as empresas aumentam a dimensão dos conjuntos de dados de treino e aumentam a computação utilizada para processar os dados. Quando o modelo está treinado e nós (o utilizador) começamos a fazer-lhe perguntas, a resumir e-mails ou a resumir informações, o hardware de computação que o executa também consome quantidades significativas de energia.

Ainda há poucos dados sobre a pegada de carbono de uma consulta de IA generativa, por exemplo, quando se faz uma pergunta ao ChatGPT, mas estima-se que seja quatro a cinco vezes maior do que uma consulta num motor de busca como o Google.

Tendo isto em conta, e considerando o quão normal é agora pesquisar em ferramentas de IA como o ChatGPT ou o Gemini, só podemos imaginar quanta mais energia está a ser utilizada globalmente.

Elevado consumo de água

Para além de consumir muita energia, a IA utiliza muita água. Os centros de dados precisam de água durante a construção e, quando estão operacionais, é necessária água para arrefecer o hardware utilizado para treinar e implementar os modelos generativos de IA. O facto de estes centros de dados utilizarem muita água pode exercer pressão sobre os abastecimentos de água municipais e perturbar os ecossistemas.

O hardware

As matérias-primas necessárias para construir o hardware, como as baterias e os semicondutores, utilizam elementos e metais de terras raras. Muitas vezes, a extração de elementos de terras raras é feita de forma não sustentável e o processamento destes materiais pode causar degradação ambiental. Desde a desflorestação à erosão do solo e à contaminação da água.

Existe uma forma amiga do ambiente de utilizar a IA?

A utilização da IA apresenta uma faca de dois gumes: a IA pode impulsionar mudanças positivas, mas é uma tecnologia que consome muitos recursos. Saber se existe uma forma amiga do ambiente de utilizar a IA é um tema complexo que está a ser discutido.

Turn ON Privacy in one click.

O compromisso das grandes empresas tecnológicas com a IA sustentável

Falamos frequentemente das estratégias de lavagem de privacidade das grandes empresas tecnológicas e agora está a acontecer algo semelhante, mas desta vez a nova palavra de ordem que estão a comercializar é IA sustentável.

Gigantes da tecnologia como a Meta, a Google, a Amazon e a Microsoft estão a desenvolver rapidamente modelos de IA e a integrá-los nos seus produtos tanto quanto possível. Mas, claro, também sabem que há um enorme impacto ambiental, razão pela qual prometem frequentemente a neutralidade do carbono e a adoção de medidas de reciclagem. À semelhança da lavagem de privacidade, em que parecem preocupar-se com a privacidade do utilizador, é comum comercializarem IA sustentável para serem vistas como ambientalmente conscientes.

O grau de consciência ambiental destes gigantes da tecnologia ainda é desconhecido, mas há relatos do aumento das suas emissões de carbono. De acordo com um relatório das Nações Unidas, as emissões indirectas de carbono da Meta, Amazon, Microsoft e Google aumentaram em média 150% entre 2020 e 2023 devido às elevadas necessidades energéticas dos seus centros de dados.

Outra constatação interessante é que a Google, que estabeleceu o objetivo de atingir emissões líquidas nulas de carbono até 2030, retirou discretamente o objetivo de emissões líquidas nulas de carbono do seu sítio Web. Embora o objetivo de emissões líquidas nulas ainda esteja, aparentemente, na política da empresa, uma vez que já não o publicita de forma clara e centralizada e o facto de estar a investir fortemente em IA, não é convincente que este objetivo seja alcançado.

O que é que se pode fazer?

O boom da IA, especificamente da IA generativa, tem o potencial de fazer grandes coisas, mas também tem o potencial de causar muitos danos. Não só para o ambiente, mas também para nós, enquanto sociedade, por exemplo, através da apresentação de resultados tendenciosos. Embora não seja claro até que ponto a IA é má para o ambiente, existem provas suficientes para saber que não é boa para ele. Por isso, da próxima vez que abrir o ChatGPT ou a sua IA de eleição, pense duas vezes antes de fazer perguntas, de escrever os seus e-mails ou de executar tarefas, porque, em segundo plano, o ambiente está a pagar um custo elevado pela sua conveniência.

Illustration of a phone with Tuta logo on its screen, next to the phone is an enlarged shield with a check mark in it symbolizing the high level of security due to Tuta's encryption.