Nel dibattito contemporaneo sull’intelligenza artificiale, il confronto tra visioni sembra spesso giocarsi sul terreno dei principi: da una parte l’innovazione spinta e orientata al mercato, dall’altra un approccio più prudente, attento ai rischi e ai limiti etici. Tuttavia, questa lettura rischia di essere superficiale.
Se si adotta uno sguardo più concreto, emerge una dinamica diversa: i conflitti tra modelli culturali e tecnologici riflettono sempre più spesso una competizione per risorse scarse. E anche nell’universo digitale, apparentemente immateriale, questa logica si impone con forza.
Un caso emblematico è il confronto tra OpenAI e Anthropic, due protagonisti della nuova stagione dell’AI generativa. Le differenze tra i due approcci – più orientato al prodotto il primo, più attento alla sicurezza il secondo – sono reali, ma non esauriscono la posta in gioco.
Il vero punto di frizione è sempre più legato alla disponibilità di potenza di calcolo. L’intelligenza artificiale, infatti, non è soltanto una questione di algoritmi o modelli: è soprattutto infrastruttura. Chip avanzati, data center, capacità energetica e accesso a hardware specializzato rappresentano oggi il vero collo di bottiglia.
I segnali sono evidenti. L’aumento esponenziale della domanda di risorse computazionali, la crescita vertiginosa degli utenti e il costo sempre più elevato delle GPU di fascia alta stanno trasformando il mercato. Non si tratta di una semplice fase di espansione ma di una pressione strutturale che favorisce pochi grandi attori, rafforzando dinamiche oligopolistiche.
In questo contesto, anche le scelte etiche rischiano di essere subordinate alla disponibilità di risorse. Limitazioni nell’accesso ai servizi, restrizioni sulle funzionalità o rallentamenti nello sviluppo non dipendono solo da strategie aziendali, ma da vincoli materiali. La scarsità, in altre parole, diventa un fattore politico.
Il risultato è un progressivo spostamento del baricentro del dibattito. Non basta più chiedersi se l’intelligenza artificiale sia sicura o pericolosa, né se debba essere regolata in senso più o meno restrittivo. La domanda cruciale diventa un’altra: chi controlla l’infrastruttura che rende possibile l’AI?
Oggi, la governance di queste risorse è concentrata in un numero limitato di soggetti privati, mentre le istituzioni pubbliche faticano a tenere il passo. L’autoregolazione dell’industria, spesso invocata come soluzione, mostra limiti evidenti di fronte a interessi economici e pressioni geopolitiche sempre più forti.
La conseguenza è che il potere non risiede più soltanto nei modelli o nei dati, ma nella capacità di sostenere e scalare l’infrastruttura tecnologica. È lì che si decide chi può innovare, chi può accedere e, in ultima analisi, chi può influenzare la direzione dello sviluppo.
Per questo motivo, il tema della “carestia del calcolo” non può essere considerato un dettaglio tecnico. È una questione politica, che interroga direttamente governi, regolatori e cittadini. Senza una risposta istituzionale adeguata, il rischio è che la trasformazione digitale proceda lungo traiettorie determinate da pochi centri di potere, con implicazioni profonde per l’economia, la conoscenza e la democrazia stessa.
LEGGI ANCHE
Green pass valido per 12 mesi
Arriva l’ok del cts alla proposta di prolungamento della scadenza del green pass Tanto auspicato quanto atteso, arriva l’ok del Comitato tecnico scientifico all’estensione del…
Il PNRR ha qualche problemino informatico
Giovedì 13 aprile 2023 Il sindaco di Bari, Antonio Decaro, è anche il presidente dell’ANCI, l’associazione dei comuni italiani. Decaro, recentemente, ha scritto una lettera…