L’intelligenza artificiale consuma enormi quantità di energia, acqua e territorio. Data center in crescita, impatto ambientale crescente e rischio geopolitico rendono urgente capire il vero costo nascosto dell’IA moderna
L’altra faccia dell’IA: consumi nascosti che nessuno vuole raccontarti.
L’intelligenza artificiale è diventata la grande protagonista del nostro tempo. La usiamo ogni giorno, spesso senza rendercene conto, eppure dietro la sua apparente leggerezza digitale si nasconde un mondo molto materiale fatto di energia, acqua, infrastrutture e territori trasformati. Una ricerca dell’University of California, Riverside lo spiega con un’immagine semplice: una singola richiesta a un chatbot consuma più o meno “l’energia di una lampadina da 60 watt accesa per alcune decine di secondi”. Non sembra molto, ma moltiplicato per miliardi di richieste al giorno diventa un problema enorme.
Secondo lo stesso studio, ogni interazione richiede anche acqua, perché i data center - gli edifici che ospitano i server - devono essere raffreddati costantemente. E guardando al futuro, i numeri diventano impressionanti: entro il 2030, negli Stati Uniti, i server dedicati all’IA potrebbero consumare ogni anno fino a 1100 milioni di metri cubi d’acqua, l’equivalente del fabbisogno di 10 milioni di cittadini. Sul fronte energetico, la previsione è di 250 TWh all’anno, più della metà dell’intero consumo elettrico italiano. Se questa energia arriva da fonti fossili, l’impatto climatico diventa inevitabilmente pesante.
Non stupisce che negli Stati Uniti siano nate proteste in diversi stati, tanto da portare centinaia di organizzazioni a chiedere una moratoria nazionale sulla costruzione di nuovi data center. Il tema è diventato così sensibile che persino Sam Altman, il volto pubblico di ChatGPT, ha rilasciato dichiarazioni provocatorie, paragonando l’energia necessaria per addestrare un modello a quella necessaria per “addestrare un essere umano”.
L’Italia e la corsa ai data center
Il fenomeno non riguarda solo gli Stati Uniti. Anche in Italia, soprattutto nell’area tra Milano e Pavia, stanno nascendo data center ovunque. Cittadini come Enrico Duranti mostrano terreni agricoli trasformati in cantieri e spiegano che un singolo impianto potrebbe consumare quanto 580 mila famiglie. In un paese che consuma 290 TWh all’anno, significa quasi l’1% del fabbisogno nazionale concentrato in un solo punto.
Il problema non è solo energetico: è anche territoriale. Molti data center vengono costruiti su terreni agricoli perché costano poco e sono più facili da edificare. Come racconta un’attivista, un terreno che vale 20–30 euro al metro quadro può arrivare a 900 euro se diventa edificabile. È un affare troppo ghiotto per non attirare speculazioni immobiliari. Per questo comitati e associazioni chiedono che si usino aree industriali dismesse, i cosiddetti brownfield, invece di consumare nuovo suolo.
Il settore, però, corre più veloce delle leggi. In Italia non esiste ancora una normativa nazionale che regoli in modo chiaro la costruzione dei data center. Nel frattempo, le grandi aziende tecnologiche investono miliardi e spingono per espandere le infrastrutture. C’è persino chi, come Elon Musk, immagina data center in orbita alimentati dal sole, con costellazioni di satelliti dedicate all’IA.
Una questione geopolitica
Dietro questa corsa c’è anche un tema di potere. Oggi quasi tutto il cloud europeo è in mano a tre colossi americani: Amazon, Microsoft e Google. Questo significa che gran parte dei dati europei - pubblici e privati - passa attraverso infrastrutture controllate da aziende statunitensi. E la legge americana Cloud Act obbliga queste aziende a consegnare i dati alle autorità USA se richiesto, anche se i server si trovano fisicamente in Europa.
Non è un dettaglio da poco. Lo dimostra il fatto che il Parlamento europeo, nel febbraio scorso, ha disattivato alcune funzioni di IA integrate nei dispositivi di lavoro dei deputati proprio per timori legati alla riservatezza.
L’Europa aveva provato a costruire un’alternativa con il progetto Gaia-X, ma l’iniziativa è naufragata anche perché coinvolgeva le stesse big tech americane da cui avrebbe dovuto emanciparsi. L’Università di Torino, che aveva aderito al progetto, è stata la prima a uscirne: “dovevamo continuamente discutere qualsiasi cosa con Amazon, Google, Microsoft”, raccontano.
Tentativi di autonomia: Torino e la Svizzera
Non mancano però esperimenti virtuosi. L’Università di Torino ha costruito un proprio data center, HPC4AI, progettato per essere efficiente e sostenibile. Il raffreddamento avviene a vapore, e l’intera infrastruttura - hardware, cloud, gestione dei dati - è sotto controllo dell’università. L’obiettivo è chiaro: garantire sovranità sui dati e sulla tecnologia.
In Svizzera, invece, il supercomputer ALPS del Politecnico federale di Zurigo ha permesso di addestrare Apertus, un modello linguistico europeo completamente aperto e trasparente. Il centro di calcolo è stato costruito accanto al lago di Lugano per sfruttare l’acqua fredda come sistema di raffreddamento naturale, riducendo l’impatto ambientale. L’idea è creare una comunità europea attorno a un’IA che rispetti le leggi e i valori del continente.
Una sfida che l’Europa non può ignorare
Il quadro che emerge è quello di una tecnologia potentissima, ma anche energivora, ingombrante e geopoliticamente delicata. L’Europa ha competenze, talenti e infrastrutture, ma deve imparare a muoversi come un blocco unico se vuole avere un ruolo nella partita globale dell’intelligenza artificiale. Altrimenti rischia di restare dipendente da infrastrutture e decisioni prese altrove.
Descrizione foto: Data center. - Credit: IA.
Ricerca giornalistica a cura della Redazione ECplanet