A face oculta da inteligência artificial: poluição, energia e silêncio

Este Artículo está Patrocinado por Phicus

O avanço da inteligência artificial seduz o mundo com promessas de eficiência, criatividade automatizada e soluções para problemas complexos. Mas enquanto a opinião pública aponta para a inovação, uma sombra pesada cresce à margem: a pegada de carbono da IA.

Essa tecnologia, que parece intangível, deixa uma marca tangível no planeta. E, no entanto, poucos falam sobre isso. O custo ambiental da inteligência artificial merece ser uma parte urgente do debate público.

“O futuro não é o que costumava ser” — Paul Valéry

Por: Gabriel E. Levy B.

Quando Paul Valéry escreveu essa frase, ele não imaginava um futuro controlado por algoritmos e servidores que devoram energia com fome insaciável. No entanto, a reflexão ainda é válida para entender o que está acontecendo hoje com o desenvolvimento da inteligência artificial.

Desde seus primeiros experimentos em laboratórios universitários até sua atual expansão massiva, a IA evoluiu com uma promessa de automação e eficiência que, paradoxalmente, demanda cada vez mais recursos naturais.

Durante anos, o foco foi em avanços técnicos, desde aprendizado profundo até modelos de linguagem generativa.

O que ficou de fora da conversa foi o preço ambiental envolvido no treinamento e manutenção desses sistemas. Pesquisadores como Kate Crawford, autora de Atlas of AI, denunciam essa omissão: “A IA não é apenas uma criação matemática; É uma rede física, com impactos materiais no meio ambiente, nos corpos humanos e na economia global.”

Treinar um único modelo de linguagem em larga escala pode consumir mais de 300 toneladas de dióxido de carbono, de acordo com um estudo de Emma Strubell (2019) da Universidade de Massachusetts Amherst.

Esse número equivale às emissões de cinco carros ao longo de toda a sua vida útil. À medida que a tecnologia se torna mais complexa e onipresente, o custo da energia também aumenta, arrastando consigo consequências que ainda não aprendemos a medir em sua totalidade.

“A inteligência artificial precisa de uma mina de lítio e uma usina termelétrica”

Para uma máquina pensar, é necessária infraestrutura. E essa infraestrutura não é virtual. Enormes data centers, servidores com resfriamento constante, redes de energia que mantêm milhões de parâmetros ativos: tudo isso faz parte do maquinário que dá vida à IA.

Empresas como Google, Microsoft e Amazon gerenciam esses complexos em países estratégicos, buscando aliar eficiência energética com custos reduzidos, mas mesmo em suas versões “mais verdes”, esses sistemas consomem uma quantidade exorbitante de recursos.

Modelos de treinamento como GPT-3 ou GPT-4, de acordo com estimativas da Hugging Face, podem envolver consumo de energia equivalente ao de 126 lares americanos por um ano.

Além disso, grande parte dessa energia ainda vem de fontes não renováveis. O carvão e o gás continuam a ser protagonistas invisíveis na expansão do “pensamento” artificial.

Não é apenas uma questão de eletricidade. Os materiais necessários para fazer os chips, processadores e dispositivos que alimentam a IA também têm sua marca. Lítio, cobalto, níquel, terras raras: todos vêm de regiões que já enfrentam estresses ambientais e sociais devido à extração intensiva. Como alerta o pesquisador dinamarquês Anders Sandberg, do Future of Humanity Institute,

“A IA não está na nuvem: está no solo, nos minerais, nas minas e nos cabos que atravessam os continentes”.

O paradoxo é óbvio: uma tecnologia projetada para otimizar processos, que poderia ajudar a mitigar as mudanças climáticas por meio de previsões e análises, torna-se parte do problema por causa de sua estrutura operacional. E nesse silêncio constrangedor, a sustentabilidade é relegada a notas de rodapé.

“Treinar um modelo custa mais do que iluminar um estádio”

Por trás do véu glamoroso da inteligência artificial operam processos energéticos que rivalizam com os setores mais poluentes. Modelos de linguagem, visão computacional ou previsão climática precisam ser treinados em vários estágios. Cada iteração exige mais cálculos, mais servidores, mais resfriamento. E uma vez treinados, eles não param: continuam operando, armazenando dados, atendendo a consultas, reproduzindo resultados, com uma demanda constante de energia.

Essa dinâmica se traduz em uma pegada de carbono que cresce com a ambição do modelo. Se o objetivo é criar sistemas mais complexos, mais precisos e mais “humanos”, então a energia necessária também aumenta. Nas palavras do filósofo francês Éric Sadin, autor de A Siliconização do Mundo, “delegamos inteligência a sistemas que consomem mais do que o planeta pode sustentar”.

O problema é agravado pela falta de regulamentações claras ou padrões globais sobre o impacto ambiental da IA. Ao contrário de outras indústrias, o setor de tecnologia ainda opera sob a ilusão de ser limpo, intangível, neutro. Essa percepção alimenta a inação.

Não há rótulos de carbono para aplicações de inteligência artificial. Não há declarações obrigatórias de consumo de energia para desenvolvedores. E, enquanto isso, os modelos estão se multiplicando.

Nos países onde os data centers estão hospedados, o impacto também é sentido. A Islândia, por exemplo, viu um aumento de 45% em seu consumo de eletricidade após a instalação massiva de servidores para mineração de dados e IA. Nos Estados Unidos, a Agência de Proteção Ambiental informou que os data centers respondem por mais de 2% do consumo total de energia, um número que cresce a cada ano sem sinais de desaceleração.

 

“Um algoritmo também pode poluir”

Os casos estão se acumulando. A OpenAI, ao lançar o ChatGPT, usou a infraestrutura da Microsoft, que opera um dos maiores data centers do mundo em Iowa.

Esse centro, embora tenha eficiência, consome mais água do que uma pequena cidade para manter seus servidores resfriados. A Meta, por sua vez, foi criticada por seus centros no Novo México, onde as comunidades locais relatam escassez de água enquanto os servidores permanecem em operação constante.

Na China, o Baidu treinou seu modelo de linguagem Ernie em instalações movidas a carvão, provocando protestos entre ambientalistas que denunciaram o discurso duplo: por um lado, o desenvolvimento tecnológico; por outro, o agravamento das mudanças climáticas.

Ao mesmo tempo, a Amazon Web Services enfrenta questões na Índia e no Brasil, onde sua expansão pressiona os ecossistemas locais e as comunidades vulneráveis.

Mesmo projetos “verdes” não estão isentos. O Google, que tenta operar com energia renovável, reconheceu em seu relatório de sustentabilidade de 2023 que suas emissões cresceram 20% devido ao treinamento de novos modelos de IA. Mesmo quando a energia vem de fontes limpas, a magnitude do consumo ainda é um problema.

Esse cenário apresenta um dilema ético e político: estamos dispostos a sacrificar recursos naturais finitos para que uma máquina possa escrever um poema, desenhar uma imagem ou resolver uma equação? Quem decide que tipo de consumo de energia é justificável em nome do progresso tecnológico?

Em conclusão, a inteligência artificial não é inócua. Sua expansão acelerada acarreta custos ambientais que ainda não integramos ao debate público. A pegada de carbono, o consumo de água, a extração mineral e o gasto de energia desafiam a promessa de tecnologia “limpa”. Reconhecer esses impactos é o primeiro passo para um modelo mais sustentável, onde o desenvolvimento da IA não seja uma ameaça ao equilíbrio ecológico do planeta.

 

Referências:

  • Crawford, K. (2021). Atlas da IA: Poder, Política e os Custos Planetários da Inteligência Artificial. Imprensa da Universidade de Yale.
  • Strubell, E., Ganesh, A., & McCallum, A. (2019). Considerações sobre energia e políticas para aprendizado profundo em PNL. pré-impressão arXiv.
  • Sadin, É. (2016). A silicolonização do mundo. Caja Negra Editora.
  • Sandberg, A. (2020). Instituto do Futuro da Humanidade, Universidade de Oxford.
  • Relatório Ambiental do Google 2023.
  • Relatório de uso de energia do data center da EPA, EUA.