L’intelligenza artificiale corre veloce, ma dietro ai progressi straordinari delle sue applicazioni si nasconde una sfida colossale: l’energia. Secondo un nuovo studio del TeraByte Interconnection and Package Laboratory (TeraLab) del Kaist in Corea del Sud, i chip di nuova generazione potrebbero arrivare a consumare fino a 15.360 watt per singolo modulo entro il 2035, spingendo al limite le infrastrutture di alimentazione e raffreddamento.
La ragione è l’evoluzione della memoria ad alta larghezza di banda (Hbm), che passerà da Hbm4 nel 2026 a Hbm8 nel 2038. Ogni passo garantirà più potenza di calcolo, ma a costo di un fabbisogno energetico esponenziale. Già nel 2026 le GPU arriveranno a 800 watt, per poi toccare 1.200 watt entro il 2035. Accoppiate con 32 stack Hbm da 180 watt ciascuno, il consumo di un singolo modulo raggiungerà i 15 kW.
Il nodo dei data center
Per i grandi modelli linguistici e i sistemi fondativi di IA, questi numeri rappresentano un punto critico. Il Dipartimento dell’Energia USA stima che il raffreddamento costituisce già il 40% dei consumi dei data center, e i chip di prossima generazione spingeranno ancora più in alto la soglia. Le conseguenze vanno ben oltre il design dei processori: dalla distribuzione di potenza a livello di rack, fino alla pianificazione delle reti elettriche e degli impianti di raffreddamento.
Alcune città, come Dublino, hanno già imposto moratorie sui nuovi data center, mentre Francoforte e Singapore stanno affrontando gravi limiti di capacità. Un singolo modulo da 15 kW acceso in continuo può costare fino a 20mila dollari l’anno solo di energia elettrica, senza contare i sistemi di raffreddamento.
L’energia come nuovo parametro di competitività
Se in passato la metrica chiave era la velocità di calcolo, oggi la sfida è l’accesso alla potenza elettrica. Le regioni con abbondanza di energia – come i Paesi nordici, il Midwest americano o gli Stati del Golfo – diventano poli attrattivi per l’IA. Al contrario, aree con reti sature rischiano di trasformarsi in “deserti dell’intelligenza artificiale”.
Il caso italiano
In Italia, la situazione non è meno delicata. Al 30 giugno 2025 la capacità di generazione nazionale era di circa 120 GW, ma già oggi emergono tensioni: le richieste di connessione da parte degli impianti rinnovabili saturano virtualmente la rete, mentre le aree metropolitane – in particolare Milano e la Lombardia – soffrono colli di bottiglia nelle cabine primarie. Qui la domanda crescente dei data center rischia di superare le capacità di prelievo.
Una questione nazionale
Garantire al Paese competitività nell’era dell’IA significa elaborare un nuovo patto nazionale sull’energia e le infrastrutture digitali. Un piano che anticipi le necessità future e non rincorra emergenze, evitando il rischio di ritardi strutturali che potrebbero tradursi in disuguaglianze e deindustrializzazione.
Il messaggio per le aziende è chiaro: nell’era dell’intelligenza artificiale, il vero limite non sarà il numero di operazioni al secondo, ma i kilowatt disponibili.
Iscriviti al canale Telegram di Servicematica
Notizie, aggiornamenti ed interruzioni. Tutto in tempo reale.
LEGGI ANCHE

Bonus 200: si può richiedere anche senza Partita Iva
Il Bonus 200 è un’indennità una tantum contenuta nel Decreto Aiuti del 2022, destinata a professionisti e lavoratori autonomi regolarmente iscritti alle gestioni previdenziali e…

Tetto retributivo per i dipendenti pubblici: la Consulta boccia la soglia fissa da 240mila euro
Con la sentenza n. 135, la Corte costituzionale ristabilisce il principio di proporzionalità e indipendenza, dichiarando l’illegittimità del tetto fisso introdotto nel 2014 e imponendo…

Il Presidente dell’Unione Nazionale Camere Civili commenta l’approvazione del disegno di legge al Senato e richiama l’importanza del confronto tra tutti gli attori del sistema…