L’intelligenza artificiale corre veloce, ma dietro ai progressi straordinari delle sue applicazioni si nasconde una sfida colossale: l’energia. Secondo un nuovo studio del TeraByte Interconnection and Package Laboratory (TeraLab) del Kaist in Corea del Sud, i chip di nuova generazione potrebbero arrivare a consumare fino a 15.360 watt per singolo modulo entro il 2035, spingendo al limite le infrastrutture di alimentazione e raffreddamento.
La ragione è l’evoluzione della memoria ad alta larghezza di banda (Hbm), che passerà da Hbm4 nel 2026 a Hbm8 nel 2038. Ogni passo garantirà più potenza di calcolo, ma a costo di un fabbisogno energetico esponenziale. Già nel 2026 le GPU arriveranno a 800 watt, per poi toccare 1.200 watt entro il 2035. Accoppiate con 32 stack Hbm da 180 watt ciascuno, il consumo di un singolo modulo raggiungerà i 15 kW.
Il nodo dei data center
Per i grandi modelli linguistici e i sistemi fondativi di IA, questi numeri rappresentano un punto critico. Il Dipartimento dell’Energia USA stima che il raffreddamento costituisce già il 40% dei consumi dei data center, e i chip di prossima generazione spingeranno ancora più in alto la soglia. Le conseguenze vanno ben oltre il design dei processori: dalla distribuzione di potenza a livello di rack, fino alla pianificazione delle reti elettriche e degli impianti di raffreddamento.
Alcune città, come Dublino, hanno già imposto moratorie sui nuovi data center, mentre Francoforte e Singapore stanno affrontando gravi limiti di capacità. Un singolo modulo da 15 kW acceso in continuo può costare fino a 20mila dollari l’anno solo di energia elettrica, senza contare i sistemi di raffreddamento.
L’energia come nuovo parametro di competitività
Se in passato la metrica chiave era la velocità di calcolo, oggi la sfida è l’accesso alla potenza elettrica. Le regioni con abbondanza di energia – come i Paesi nordici, il Midwest americano o gli Stati del Golfo – diventano poli attrattivi per l’IA. Al contrario, aree con reti sature rischiano di trasformarsi in “deserti dell’intelligenza artificiale”.
Il caso italiano
In Italia, la situazione non è meno delicata. Al 30 giugno 2025 la capacità di generazione nazionale era di circa 120 GW, ma già oggi emergono tensioni: le richieste di connessione da parte degli impianti rinnovabili saturano virtualmente la rete, mentre le aree metropolitane – in particolare Milano e la Lombardia – soffrono colli di bottiglia nelle cabine primarie. Qui la domanda crescente dei data center rischia di superare le capacità di prelievo.
Una questione nazionale
Garantire al Paese competitività nell’era dell’IA significa elaborare un nuovo patto nazionale sull’energia e le infrastrutture digitali. Un piano che anticipi le necessità future e non rincorra emergenze, evitando il rischio di ritardi strutturali che potrebbero tradursi in disuguaglianze e deindustrializzazione.
Il messaggio per le aziende è chiaro: nell’era dell’intelligenza artificiale, il vero limite non sarà il numero di operazioni al secondo, ma i kilowatt disponibili.
Iscriviti al canale Telegram di Servicematica
Notizie, aggiornamenti ed interruzioni. Tutto in tempo reale.
LEGGI ANCHE
Nuova strategia italiana sull’IA
13 esperti selezionati dal Governo, assieme ad AGID, hanno creato un nuovo documento, che sarà valido per il periodo 2024/2026. Presenti 10 punti che qualificano…
Spid: il 61% degli italiani ne è in possesso, anche se frenano le attivazioni
36,4 milioni di cittadini, ovvero il 61% della popolazione, ha attivato il sistema di identità virtuale SPID, che permette l’accesso ai servizi online della PA.…
Sbagli l’interlinea? Anche se vinci la causa, devi pagare le spese
Il Giudice di Pace di Verona ha applicato alla lettera il Dm Giustizia 110/2023, concentrandosi sulla dimensione dei caratteri, sulle interlinee, sui margini e sulla…
