In un momento storico che evidenzia una crescita smisurata di investimenti in intelligenza artificiale, i server per gestire carichi di lavoro importanti saranno sempre più richiesti.
Pensiamo solo al recente investimento annunciato da Microsoft: circa 80 miliardi di dollari in infrastrutture di datacenter mirate a servire le nuove esigenze di supercalcolo.
In particolare, Microsoft sembra che investirà da adesso sino a giugno 2026, concentrando metà degli investimenti in territorio USA.
Uno scenario naturale, quello dell’espansione dei data center, visto l’impatto dell’intelligenza artificiale sulle risorse computazionali, che divora velocemente, parallelamente e senza sosta.
La tecnologia abilitante innovazioni come IA e machine learning ha però un costo ambientale molto elevato, soprattutto se le scelte strategiche e geografiche per la nascita di nuove infrastrutture non terranno conto del loro peso in termini di CO2.
AI e ambiente: un’armonia complessa
La progressiva adozione delle nuove tecnologie nelle aziende avrà un impatto sempre più importante.
Quella intorno all’intelligenza artificiale è una filiera di per sé altamente “spendente” in termini energetici, a partire dalle GPU dei server AI indispensabili per la parallelizzazione dei calcoli: potentissime, le schede grafiche si basano su materie prime (alluminio, zinco, nickel) reperibili nelle cosidette “terre rare”, e la loro reperibilità deve fare i conti con conflitti geopolitici e CO2, vista la quantità di energia di cui hanno bisogno.
I server GPU richiedono elevate quantità di acqua per il raffreddamento e rappresentano il 2,8 per cento del consumo degli Stati Uniti, dove persistono infrastrutture alimentate da fonti di energia non rinnovabili e allocate in regioni con intensità di carbonio superiore alla media nazionale. Quest’ultimo aspetto è dovuto al fatto che per i data center si privilegiano regioni dove l’energia è più economica (ma magari più inquinante!). In alcune aree, quindi, si verificherà un maggiore impatto della presenza di data center rispetto ad altre.
Al momento, le politiche di investimento in AI datacenter non stanno puntando a un equilibrio nella distribuzione geografica delle infrastrutture.
Addestrare modelli costa energia
Una attività come l’addestramento di un singolo modello AI come un LLM è in grado di consumare migliaia di megawatt/h di elettricità e di emettere migliaia di tonnellate di carbone, favorendo inoltre l’evaporazione di incredibili volumi di acqua nell’atmosfera per le procedure di raffreddamento dei data center.
Per generare il data set stesso, poi, servono algoritmi di addestramento e inferenza, e servono enormi quantità di dati.
Soluzioni più sostenibili per lo sviluppo dell’intelligenza artificiale
Oggi abbiamo la certezza che gli investimenti andranno sempre più verso l’espansione dei data center e la nascita di nuove server farm.
Occorre però che le strategie vadano anche nella direzione di una maggiore sostenibilità:
- privilegiando una distribuzione più omogenea a livello geografico per la costruzione di nuovi datacenter;
- puntando ad addestrare l’AI in modo più “frugale”.
Un articolo dell’11 gennaio scorso di The Economist fa riflettere su come si possa ripensare l’intelligenza artificiale in ottica più sostenibile: i modelli AI potrebbero infatti non aver bisogno di enormi datacenter ma seguire un modello più equo.
E mentre ultramiliardari come Zuckerberg e Musk più che a competere con barche e beni di lusso gareggiano in acquisti voluminosi di schede grafiche, più chip ci sono in giro più il “lavoro” di sincronizzazione necessario genera dispersione e improduttività.
Di qui, oggi gli informatici devono orientarsi su modi più frugali e intelligenti per fare training di modelli: non più grossi cluster gpu dispendiosi, ma data center piccoli e distribuiti.
In effetti, la parallelizzazione del calcolo prevede tante GPU o Graphic Processing Unit che lavorano insieme: “dopo ogni passaggio, i chip condividono i dati sulle modifiche apportate (…), passaggio chiamato checkpointing ” (sempre The Economist), un processo che in presenza di tantissimi chip prende tempo. Tanto che qualcuno, in particolare Arthur Douillard, Ingegnere di Google Deep Mind, ha avanzato l’ipotesi di ottimizzare la dispendiosa fase del checkpoint, distribuendo i carichi su più data center, privilegiandole rispetto alle infrastrutture “monolitiche”. Attraverso un approccio distribuito, insomma. Che consenta anche di distribuire energia senza metterla nelle mani di una singola nazione.
La tecnologia green che abilita l’intelligenza artificiale
Oggi che l’intelligenza artificiale può essere adottata per ottenere tantissimi benefici soprattutto nel contesto della ricerca scientifica e nell’ottimizzazione dei task ripetitivi, per esempio, non dobbiamo dimenticare il suo importante peso sull’ambiente. Pensiamo solo che scambiare 20 messaggi con ChatGPT ci costa circa 500 ml di acqua…
Di qui, se non possiamo rinunciare a innovare, è indispensabile porsi il problema e soprattutto agire. Studiando e valutando l’efficacia di soluzioni distribuite che possano evitare la concentrazione di grossi data center in specifiche aree, magari selezionate più per convenienza che per adeguatezza in termini ambientali e di disponibilità di risorse.
Un’ulteriore mossa è quella di privilegiare GPU cloud provider attenti al tema della sostenibilità.
I Cloud Server GPU Seeweb, per esempio, sono basati su infrastrutture ad alta densità, con armadi che ospitano GPU cluster ottimizzati ma non meno performanti. Inoltre, le energie utilizzate per alimentare i data center dell’azienda sono rinnovabili e certificate. A corredo di questo approccio, anche un ciclo di utilizzo dell’acqua senza sprechi (a circuito chiuso).