I Large Language Model (LLM), i modelli linguistici di grandi dimensioni come Bard di Google o ChatGPT di OpenAI, impattano moltissimo sul nostro ambiente. Oltre al consumo di molta energia e l’utilizzo massiccio di dati per poterli addestrare, i chatbot di intelligenza artificiale hanno bisogno anche di una grande quantità di acqua.
Di recente è stata pubblicata una ricerca che attesta come l’addestramento di ChatGPT-3 abbia consumato 700.000 litri di acqua. Inoltre, è stato dimostrato anche che una conversazione tra un chatbot e un utente medio equivale al consumo di una bottiglia d’acqua.
Si tratta di una quantità sufficiente per la produzione di 370 auto Bmw o di 320 Tesla. Il consumo, inoltre, triplica nei datacenter asiatici di Microsoft, meno all’avanguardia e dunque meno ottimizzati. Secondo la testata Gizmodo, parliamo di una quantità d’acqua pari a quella che serve per riempire una torre di raffreddamento di un rettore nucleare.
Leggi anche: ChatGPT e lo scenario Terminator: le IA uccideranno il lavoro dell’avvocato?
Sono evidenze che allarmano gli esperti del settore idrico, che in America si stanno occupando della complessa situazione ambientale causata dalla siccità. A ciò dobbiamo aggiungere il fatto che i modelli linguistici diventeranno via via più complessi, e avranno necessità di una sempre maggior quantità d’acqua per la loro formazione. Sempre che ce ne sia a disposizione.
Affermano i ricercatori del settore: «L’impronta idrica dei modelli di intelligenza artificiale non può più passare inosservata. Questa deve essere affrontata come una priorità all’interno degli sforzi collettivi fatti per combattere le sfide idriche globali».
Il processo di raffreddamento delle sale server
Nel calcolo del consumo d’acqua da parte di un’intelligenza artificiale, i ricercatori distinguono nettamente tra prelievo e consumo. Il primo indica la rimozione fisica dell’acqua da un fiume, da un lago o da altre fonti; il secondo, invece, si riferisce alla dispersione dell’acqua per via dell’evaporazione nel momento in cui viene utilizzata in un data center.
Il consumo, in questo caso, impatta moltissimo sull’ambiente, visto che l’acqua non può essere in alcun modo riciclata. Chiunque abbia avuto a che fare con una sala server sa bene che la temperatura al suo interno, per evitare malfunzionamenti delle apparecchiature, deve restare tra i 10 e i 27 gradi Celsius, ovvero tra i 50 e gli 80 gradi Fahrenheit.
È una condizione difficile da mantenere, visto che i server producono calore in gran quantità. Dunque, per far fronte al problema, le sale server sono equipaggiate con torri di raffreddamento, che contrastano il calore e mantengono all’interno una temperatura ideale attraverso l’evaporazione dell’acqua fredda.
Iscriviti al canale Telegram di Servicematica
Notizie, aggiornamenti ed interruzioni. Tutto in tempo reale.
Il processo funziona perfettamente, ma richiede un gran consumo d’acqua. Secondo quanto stimato dai ricercatori, in un datacenter medio viene consumato 1 litro d’acqua per ogni kilowattora.
Si tratta di un consumo veramente importante, soprattutto considerando come i data center attingano soltanto dalle fonti d’acqua dolce e pulita, evitando in tal modo la corrosione delle apparecchiature, ma anche il proliferare dei batteri che potrebbe avvenire con l’acqua marina. Oltre a questo, l’acqua dolce risulta essenziale anche per controllare l’umidità della stanza della struttura, cosa che ne aumenta la quantità necessaria per addestrare i chatbot.
Microsoft, nel 2015, ha lanciato il Project Natick, che prevedeva l’inserimento di un piccolo datacenter direttamente nel mare, ad una profondità di 35 metri, evitando di doverlo raffreddare.
Tuttavia, si è trattato soltanto di una sperimentazione, e le altre migliorie apportate ai vari sistemi di raffreddamento non sembrano essere sufficienti per mantenere un consumo costante. Secondo gli esperti, le autorità devono cominciare ad affrontare seriamente la questione, vista l’attuale crisi climatica.
LEGGI ANCHE:
Sospensione per l’avvocato che non aggiorna il cliente sul caso