Consumo energetico dell’intelligenza artificiale: energia, acqua e la guerra geopolitica che non vedi
C’è un momento esatto in cui la tua richiesta a ChatGPT smette di essere parole e diventa kilowattora. Dura una frazione di secondo ma il conto che ne deriva è molto più pesante di quanto immagini.
Ci siamo abituati a pensare all’intelligenza artificiale come a qualcosa di immateriale.
Un servizio digitale che nasce e muore in frazioni di secondo, senza lasciare tracce fisiche.
Apri l’app, digiti la domanda, leggi la risposta.
Tutto sembra leggero, istantaneo, quasi gratuito.
Ma dietro quello schermo c’è un’infrastruttura industriale enorme, migliaia di server accesi giorno e notte, in capannoni grandi come stadi, che brucia energia elettrica in quantità industriali e consuma acqua come una città di medie dimensioni.
E lo fa in modo così sistematico, su scala così globale, che la domanda non è più se l’AI abbia un costo ambientale, è quanto siamo disposti a pagarlo, e chi lo pagherà.
Questo articolo prova a rispondere con i dati disponibili, con onestà sulle incertezze, e con uno sguardo su qualcosa che il dibattito sull’AI quasi sempre ignora:
l’energia non è solo un problema ecologico.
È la nuova frontiera del potere geopolitico.
Le superpotenze del domani non si misureranno in testate nucleari, ma in megawatt.
Una ricerca su Google o una domanda a ChatGPT? Non è la stessa cosa
Partiamo da un confronto che vale più di qualsiasi grafico.
Quando fai una ricerca tradizionale su Google, i server dell’azienda svolgono un lavoro relativamente circoscritto: confrontano, ordinano, restituiscono link.
Secondo l’Electric Power Research Institute (EPRI), questo processo richiede circa 0,3 wattora di energia elettrica.
Quando invece poni una domanda a ChatGPT, succede qualcosa di radicalmente diverso.
Il modello deve generare ogni parola della risposta in tempo reale, eseguendo miliardi di operazioni matematiche in sequenza.
Secondo l’Agenzia Internazionale dell’Energia (IEA), una singola query a ChatGPT consuma circa 3 wattora: dieci volte di più rispetto a una ricerca tradizionale.
Dieci volte sembra un’esagerazione.
Non lo è.
E va messa in scala.
Nel solo aprile 2025, ChatGPT ha registrato oltre 5 miliardi di richieste, più del doppio rispetto all’anno precedente. Il consumo giornaliero stimato del solo ChatGPT si aggira intorno ai 564 megawattora al giorno: abbastanza per alimentare oltre 37.000 abitazioni italiane per un intero anno, ripetuto ogni singolo giorno.
La IEA stima che, se anche solo una parte delle ricerche tradizionali migrasse verso l’AI generativa, il risultato sarebbe un aumento di circa 10 TWh aggiuntivi di consumo elettrico annuo a livello globale.
Per dare un termine di paragone, 10 TWh equivalgono all’intero fabbisogno elettrico annuale dell’Islanda.
E stiamo parlando di una sola applicazione.
Cosa succede fisicamente ogni volta che usi l’AI
Per capire il problema bisogna capire cosa accade fisicamente ogni volta che usiamo l’AI. Ogni modello linguistico, che si chiami ChatGPT, Gemini, Copilot o Claude gira su migliaia di server specializzati ospitati in enormi strutture industriali chiamate data center.
Non sono depositi passivi.
Sono impianti attivi ventiquattro ore su ventiquattro, trecentosessantacinque giorni l’anno, con due appetiti insaziabili: elettricità e acqua.
L’elettricità alimenta i chip.
I chip generano calore.
Il calore, se non dissipato, danneggia i componenti.
Entra qui in gioco l’acqua, usata nei sistemi di raffreddamento, torri evaporative che in molti casi disperdono fino all’80% del liquido nell’atmosfera, rendendolo irrecuperabile.
È un ciclo continuo e vorace.
I numeri globali parlano chiaro.
Secondo la IEA, nel 2024 i data center mondiali hanno consumato circa 460 TWh di energia elettrica , circa l’1,5% del consumo elettrico globale.
Entro il 2030, la stessa agenzia stima una crescita fino a 945 TWh: più dell’intero consumo annuale dell’Italia.
Goldman Sachs Research prevede addirittura un raddoppio del consumo dei data center entro la fine del decennio, con le emissioni di CO₂ del settore destinate a seguire la stessa traiettoria.
L’emergenza silenziosa: l’AI che beve
Se il tema energetico è quello più citato, quello idrico è forse più urgente e quasi completamente ignorato nel dibattito pubblico.
Un tipico data center di medie dimensioni consuma tra 11 e 19 milioni di litri d’acqua al giorno.
È la stessa quantità usata quotidianamente da una città di 30.000-50.000 abitanti.
Nel 2023, prima che l’AI diventasse pervasiva come oggi, i data center statunitensi hanno consumato oltre 283,9 miliardi di litri d’acqua, con una media di 1,7 milioni di litri al giorno per struttura (fonte: Etica SGR, dicembre 2024).
Ricercatori dell’Università della California Riverside stimano che ogni conversazione di 5-10 domande con ChatGPT consumi circa mezzo litro d’acqua.
L’addestramento del solo modello GPT-3 ha richiesto 700.000 litri di acqua dolce in circa un mese.
Le conseguenze sono già visibili.
In Virginia, dove si trova la più alta concentrazione di data center al mondo, il consumo idrico è aumentato del 65% tra il 2019 e il 2023.
In Olanda, un complesso Microsoft ha prelevato oltre quattro volte la quantità d’acqua dichiarata, scatenando un’ondata di indignazione pubblica.
In Cile, Google ha dovuto sospendere un progetto dopo che un tribunale ha revocato l’autorizzazione per i rischi su un territorio già in siccità da quindici anni.
Il report di de Vries e Gao stima che l’impronta idrica complessiva dell’AI potrebbe raggiungere nel 2025 tra 312 e 764 miliardi di litri, un volume paragonabile, in alcuni scenari, all’intero consumo mondiale annuo di acqua in bottiglia.
La bolletta climatica: emissioni che salgono mentre le promesse restano ferme
A tutto questo si aggiungono le emissioni di gas serra.
Secondo uno studio pubblicato sulla rivista scientifica Patterns, i sistemi di intelligenza artificiale potrebbero essere responsabili nel 2025 di emissioni comprese tra 32,6 e 79,7 milioni di tonnellate di CO₂, generate dall’energia necessaria al loro funzionamento.
Sono stime, le aziende sono notoriamente opache su questi dati, ma l’ordine di grandezza fa capire la portata del fenomeno.
I bilanci ambientali delle grandi tech company raccontano una storia inequivocabile.
Le emissioni di Microsoft sono cresciute del 30% tra il 2020 e il 2024.
Quelle di Google del 48% rispetto al 2019.
Le emissioni Scope 3, quelle generate lungo l’intera catena del valore, di Microsoft, Amazon e Meta sono aumentate del 150% tra il 2020 e il 2023.
Tutto questo mentre le stesse aziende continuavano a pubblicare piani di sostenibilità e annunciare obiettivi net-zero.
Non è ipocrisia deliberata.
È la matematica della crescita esponenziale che supera quella dell’efficienza.
E qui si apre uno dei paradossi più affascinanti dell’intera vicenda.
Il paradosso di Jevons: quando fare di più con meno significa fare ancora di più
All’inizio del 2025, la startup cinese DeepSeek ha sconvolto i mercati mondiali con un annuncio apparentemente rivoluzionario, aveva addestrato il suo modello V3 spendendo circa 5,6 milioni di dollari, contro i 65-80 miliardi pianificati da Meta e Microsoft , usando circa 2.000 chip invece delle decine di migliaia normalmente impiegati, e consumando tra il 50% e il 75% di energia in meno rispetto ai modelli equivalenti.
La reazione in borsa fu immediata e clamorosa.
Constellation Energy, il più grande operatore di centrali nucleari degli USA, che aveva appena siglato un accordo con Microsoft per riavviare la centrale di Three Mile Island, perse il 20% del suo valore in un solo giorno.
Se l’AI diventava così efficiente, tutta la narrativa del “nucleare necessario per i data center” sembrava improvvisamente in discussione.
Ma c’è un problema.
Si chiama paradosso di Jevons, e ha quasi due secoli.
Nel XIX secolo, l’economista inglese William Stanley Jevons osservò che il miglioramento dell’efficienza delle macchine a vapore non ridusse affatto il consumo di carbone, lo aumentò, perché le macchine più economiche da usare spingevano a usarle molto di più.
Lo stesso meccanismo rischia di applicarsi all’AI.
Se ChatGPT diventa dieci volte più efficiente, l’effetto probabile non sarà che usiamo la stessa AI consumando un decimo dell’energia.
Sarà che usiamo dieci volte più AI.
Come ha spiegato Andrew Lensen, docente di intelligenza artificiale alla Victoria University di Wellington, le aziende probabilmente useranno le innovazioni di efficienza non per ridurre i consumi, ma per costruire modelli ancora più grandi e potenti, mantenendo, nella migliore delle ipotesi, lo stesso livello di consumo.
L’energia come nuova arma geopolitica: chi controlla i megawatt controlla il futuro
C’è una dimensione di questa storia che quasi nessun commentatore osa nominare con chiarezza, l’intelligenza artificiale non è solo una questione tecnologica o ambientale.
È una questione di potere.
E il potere, nel XXI secolo, si misura sempre di più in kilowattora.
Le prossime superpotenze non si misureranno in portaerei o testate, ma in gigawatt.
Chi avrà saputo costruire una capacità energetica sufficiente ad alimentare l’infrastruttura digitale del domani, data center, modelli AI sempre più grandi, reti di comunicazione avanzate, avrà il combustibile per vincere questa partita.
Chi non ce l’ha, acquista la tecnologia degli altri e con essa accetta una dipendenza strutturale.
Il vantaggio silenzioso della Cina
È qui che entra in gioco la Cina, con una strategia che merita di essere guardata senza pregiudizi ideologici.
Negli ultimi due decenni, Pechino ha investito massicciamente in infrastrutture energetiche, oggi la Cina è il primo produttore mondiale di energia solare, il primo per capacità eolica installata e il primo per numero di reattori nucleari in costruzione.
Parallelamente, ha costruito la rete di trasmissione elettrica ad alta tensione più estesa al mondo, capace di spostare energia da una regione all’altra su migliaia di chilometri.
Questi investimenti non erano pensati solo per la transizione verde, anche se quella era la narrativa pubblica.
Erano fondamenta strategiche.
Un Paese che non dipende dall’estero per la propria energia ha un vantaggio enorme nell’era in cui ogni richiesta a un modello di AI costa kilowattora.
E mentre gli Stati Uniti continuavano a investire il grosso del loro budget federale in spesa militare, con il bilancio della difesa che supera stabilmente gli 800 miliardi di dollari l’anno, la Cina distribuiva i propri investimenti in modo molto più diversificato su infrastrutture, tecnologia, energia, logistica.
Il risultato è che oggi la Cina non solo sviluppa modelli AI competitivi, ma ha l’energia per farli girare.
Questo, nel lungo periodo, potrebbe rivelarsi il vantaggio competitivo più decisivo di tutti.
L’Europa, l’Italia e la trappola della dipendenza
L’Europa si trova in una posizione più fragile.
Nonostante le ambizioni dichiarate nella strategia digitale e nel Green Deal, il Vecchio Continente importa ancora una quota rilevante della propria energia e fatica a costruire un’industria dei semiconduttori competitiva.
L’Italia, in particolare, si trova a un bivio.
La posizione geografica, la disponibilità di rinnovabili nel Sud e le infrastrutture modernizzate potrebbero renderla un polo competitivo, ma solo se le scelte politiche sapranno integrare la transizione digitale con quella verde.
Secondo uno studio AGICI, entro il 2030 gli investimenti IT in Italia potrebbero raggiungere 18 miliardi di euro, con una capacità installata di data center che potrebbe triplicare.
Il Politecnico di Milano stima fino a 1 gigawatt di potenza installata entro il 2026, concentrata in poli come Milano, Roma-Fiumicino e la Sicilia.
La domanda è se l’Italia saprà essere protagonista o se si limiterà a ospitare l’infrastruttura altrui, incassando canoni senza costruire sovranità tecnologica.
Le soluzioni in campo: dal nucleare al raffreddamento immersivo
Di fronte a questi numeri, le grandi aziende tecnologiche non sono rimaste ferme.
Le strade che stanno esplorando sono diverse, e alcune sorprendono per la loro audacia.
Il nucleare è tornato protagonista con una forza inaspettata.
Microsoft ha firmato un accordo per riavviare la centrale di Three Mile Island in Pennsylvania, sì, proprio quella dell’incidente del 1979, per alimentare i propri data center con energia a basse emissioni e disponibile 24 ore su 24.
Meta ha annunciato l’intenzione di acquistare fino a 4 gigawatt di capacità nucleare.
Google ha firmato accordi per ricevere energia da una flotta di piccoli reattori modulari (SMR).
La logica è semplice: il nucleare produce energia densa, continua e senza emissioni di CO₂ durante il funzionamento, esattamente quello che serve a un data center.
Sul fronte idrico e termico, stanno emergendo soluzioni innovative.
Il raffreddamento a liquido diretto ai chip, il raffreddamento immersivo, dove i server sono letteralmente immersi in un fluido dielettrico speciale, e il free cooling, che usa l’aria fredda esterna quando le temperature lo consentono, stanno riducendo drasticamente la dipendenza dall’acqua. Google ha già standardizzato il proprio sistema di raffreddamento a liquido Project Deschutes su 2.000 pod di processori AI nel 2025.
Non è un caso che Islanda, Norvegia e Finlandia stiano diventando hub tecnologici di rilievo globale, il clima freddo abbatte i costi di raffreddamento, e l’abbondanza di energia idroelettrica o geotermica garantisce fonti pulite e locali.
In alcuni data center nordici, il calore di scarto dei server viene già recuperato e reimmesso nelle reti di teleriscaldamento cittadine, riscaldando edifici residenziali con l’energia che altrimenti sarebbe dispersa nell’atmosfera.
L’altro lato della bilancia: l’AI che aiuta il pianeta
Sarebbe disonesto chiudere senza menzionare la parte opposta di questa storia.
L’intelligenza artificiale ha un enorme potenziale per contribuire alla sostenibilità ambientale, e in alcuni settori lo sta già facendo concretamente.
Viene usata per ottimizzare le reti elettriche e ridurre gli sprechi (le cosiddette smart grid), per migliorare la precisione delle previsioni meteorologiche e modellare gli effetti del cambiamento climatico, per rendere più efficienti i sistemi di trasporto, per accelerare la ricerca su nuovi materiali e batterie, per ridurre gli sprechi nell’agricoltura e nella logistica globale.
Secondo uno studio di BCG commissionato da Google, l’AI avrebbe il potenziale di ridurre le emissioni globali di gas serra dal 5 al 10% entro il 2030, una stima ambiziosa e non priva di zone grigie, ma che indica la direzione di un potenziale reale.
Il punto, allora, non è demonizzare l’AI.
È assicurarsi che i benefici siano reali e misurabili, e che i costi siano trasparenti e proporzionati.
Ogni watt consumato per generare contenuti futili è un watt sottratto ad applicazioni che potrebbero davvero fare la differenza.
Cosa può fare il singolo utente e cosa no
A questo punto sorge spontanea una domanda: cambia qualcosa se io, singolo utente, uso l’AI in modo più consapevole? O è tutto nelle mani delle grandi aziende?
La risposta onesta è: entrambe le cose, in proporzioni molto diverse.
Le decisioni infrastrutturali delle big tech, quale fonte energetica usare, dove costruire i data center, quanto investire nell’efficienza, hanno un impatto incomparabilmente maggiore rispetto al comportamento del singolo utente.
Se Microsoft decide di alimentare tutti i propri data center con energia rinnovabile o nucleare, questo cambia il quadro in modo strutturale.
Detto questo, la consapevolezza collettiva conta.
Come consumatori e come cittadini, possiamo scegliere prodotti di aziende che pubblicano dati trasparenti sui propri consumi e che li rispettano davvero, non solo sulla carta.
Possiamo evitare usi frivoli dell’AI generativa per compiti che strumenti molto meno energivori potrebbero svolgere ugualmente bene.
E possiamo sostenere politiche pubbliche che obblighino i nuovi data center a rispettare standard di efficienza energetica, a dichiarare la fonte dell’energia utilizzata e a compensare i consumi idrici locali prima ancora di aprire i battenti.
La Commissione Europea si è già mossa in questa direzione, il nuovo regolamento approvato nel 2024 impone agli operatori di data center di dichiarare i principali indicatori di performance idrica ed energetica, con l’obiettivo di ridurre dell’11,7% il consumo complessivo entro il 2030.
È un inizio ma non è abbastanza.
Conclusioni
Dietro ogni risposta che riceviamo dall’intelligenza artificiale c’è un’infrastruttura fisica enorme, che consuma energia reale, acqua reale e produce emissioni reali.
I numeri che abbiamo esplorato non sono esatti, le aziende sono poco trasparenti, i metodi di misurazione variano, e le stime divergono.
Ma la direzione è chiara: il consumo energetico e idrico dell’AI sta crescendo più velocemente di qualsiasi iniziativa di efficienza o compensazione.
E c’è una dimensione geopolitica che non possiamo più ignorare.
Le prossime superpotenze non si misureranno in portaerei o testate, ma in gigawatt.
Chi avrà saputo investire nell’energia, pulita, abbondante, sovrana, avrà il combustibile per far girare l’AI del futuro.
Chi non ci avrà pensato abbastanza si ritroverà a comprare la tecnologia degli altri e a dipendere dalla loro infrastruttura.
L’intelligenza artificiale non è una nuvola.
È una fabbrica.
Funziona con elettricità e acqua.
Ha un costo.
E quel costo, prima lo mettiamo sul tavolo con onestà, prima potremo decidere insieme come distribuirlo in modo equo, tra aziende e cittadini, tra nazioni e continenti, tra il presente e il pianeta che lasceremo.
Fonti e riferimenti
- IEA — Energy and AI: Executive Summary — report completo su data center e consumo AI
- IEA — Energy Demand from AI — proiezioni al 2030
- Scientific American — AI Will Drive Doubling of Data Center Energy Demand by 2030, aprile 2025
- Carbon Brief — AI: Five charts that put data-centre energy use into context, settembre 2025
- Li, Yang, Islam, Ren (UC Riverside) — Making AI Less Thirsty: Uncovering and Addressing the Secret Water Footprint of AI Models — paper originale su arXiv
- UC Riverside News — AI programs consume large volumes of scarce water
- NPR — AI brings soaring emissions for Google and Microsoft, luglio 2024
- Microsoft — 2024 Environmental Sustainability Report
- Microsoft — 2025 Environmental Sustainability Report
- Computer Weekly — Microsoft and Google’s GHG emissions gains call viability of net-zero targets into question
- DeepLearning.AI / The Batch — DeepSeek-V3 Redefines LLM Performance and Cost Efficiency
- Stratechery — DeepSeek FAQ — analisi dettagliata dei costi di training
- World Economic Forum — How data centres can avoid doubling their energy use by 2030
- Proof News — AI Water Usage Eclipses the Biggest Beverage Companies in the World — intervista a Shaolei Ren
Forse potrebbe interessarti anche: Prompt Injection: cos’è, come funziona e perché riguarda anche chi usa l’AI ogni giorno
Per essere pienamente in linea con la nuova legge, sì, lo ammetto: per scrivere questo articolo mi sono avvalso dell’aiuto dell’intelligenza artificiale.
Grazie al suo supporto ho potuto concentrarmi sui contenuti, lasciando all’IA il ruolo di revisore attento, correttore di refusi e ottimizzatore SEO, senza intaccare la mia voce e il mio stile.
Un collaboratore affidabile che, se utilizzato in modo etico, può davvero dare una mano e migliorare la produttività di chiunque.
