Il tema della sostenibilità energetica e del Green Cloud sta diventando un affare piuttosto ingombrante per i colossi dell’IT, tanto da essere riconosciuto attualmente come una delle barriere principali nei report di sostenibilità, dati anche i recenti sviluppi dell’intelligenza artificiale.
In particolare, quella del Green Cloud rimane una delle sfide più impattanti per grandi hyper-scaler come Google e Microsoft, dal momento che il consumo energetico dei due top spender in energia starebbe crescendo rispettivamente di 3 e 5 TWh ogni anno, stando ai dati riportati nel rapporto ESG pubblicato e diffuso dalle stesse società.
Nonostante sia Google (pag. 76) sia Microsoft (pag. 21) si stiano impegnando per adottare l’uso di energie rinnovabili con l’obiettivo di alimentare i loro data center, il primo ha dichiarato nel report che le sue emissioni di CO2 nel 2023 hanno registrato una crescita del 48% rispetto ai valori del 2019; il secondo, dal canto suo, ha segnalato che, dal 2020, l’incremento delle sue emissioni è stato del 30%.
Ricordiamo come solo quattro anni fa la stessa Microsoft si era posta un obiettivo molto ambizioso: il saldo netto zero nelle emissioni di gas serra entro il 2030. Nel frattempo, però, non aveva ancora fatto i conti con lo sviluppo e la crescita della AI, che ha repentinamente cambiato le carte in tavola.
I numeri di questa impennata dei consumi sono importanti e offrono una misura globale dell’evoluzione del fabbisogno energetico per le aziende di domani, tanto da spingere a forza tutti - provider e imprese - nell’era del Green Cloud Computing.
Fonte: Rystad Energy, 2024
Come si osserva dal grafico, la crescita dei consumi per alimentare i data center è così rapida che - stando ai dati riportati nello studio di Rystad Energy - si prevede che sarà di 307 TWh entro il 2030 per le infrastrutture localizzate negli USA, in crescita del 136% rispetto ai 130 TWh del 2023.
La proiezione stima un tasso di crescita considerevole se paragonato a quello dell’elettrificazione nel settore trasporti, che subirà anch’essa un incremento del fabbisogno negli anni a venire data dalla spinta dei veicoli elettrici.
Di fronte a questo scenario, pianificare strategie sostenibili di Green Cloud per i data center al fine di presentare report di rendicontazione non finanziaria in linea con gli obiettivi dell’Agenda 2030 dovrebbe essere la priorità per le organizzazioni.
Di fatto, questa è anche una priorità per il Governo italiano che, nel “Piano Transizione 5.0” entrato in vigore il 2 marzo 2024, ha predisposto un piano di incentivi dedicati alle aziende green, mettendo sul piatto 6,3 miliardi di euro.
Questo Piano ha l’obiettivo di sostenere la transizione ecologica delle imprese sul mercato verso un modello più efficiente sotto il profilo energetico, offrendo vantaggi consistenti sul credito d’imposta per tutte quelle organizzazioni che decidono di implementare nuove tecnologie insieme a software, sistemi, piattaforme o applicazioni per il monitoraggio e l’ottimizzazione energetica.
Per il 2024, ad esempio, gli incentivi prevedono un’agevolazione fiscale fino al 45% per l’acquisto di un ERP - purché integrato con i sistemi summenzionati in grado di attestare una riduzione variabile dal 3% al 5% dei consumi. In tal caso le aliquote applicabili saranno:
Per ottenere un data center green, occorre intraprendere una serie di azioni virtuose, che vanno dall’acquisto di energia rinnovabile alla migrazione dei carichi di lavoro su server più efficienti in base ai livelli di servizio richiesti, senza dimenticare l’adozione di soluzioni ad hoc come la gestione del raffreddamento o la cattura dell’aria calda.
Tuttavia, esistono altre best practice per ridurre il consumo di energia alla radice e migliorare l’efficienza nell’uso di un data center. Si tratta, ad esempio, di implementare architetture componibili, ovvero predisporre la costruzione o decostruzione delle risorse hardware e software a seconda delle necessità: un approccio, questo, che ottimizza l’uso delle risorse e limita gli sprechi.
Le soluzioni componibili permettono di sfruttare appieno le tecnologie di virtualizzazione, containerizzazione e intelligenza artificiale per ottimizzare l’uso delle risorse a fronte dell’aumento esponenziale dei volumi di traffico dati.
Tecnologie come l’AI, in primis, hanno bisogno di soluzioni efficaci per moderare il loro impatto sui consumi. Si tenga presente che le risposte generate da un modello AI consumano fino a 10 volte più energia di una ricerca tradizionale su Google, come ha dichiarato il presidente del consiglio di amministrazione di Alphabet, John Hennessy in questa intervista a Reuters.
Usata con la finalità stessa di ridurre i consumi, l’intelligenza artificiale può essere impiegata per ottimizzare automaticamente i carichi di lavoro e migliorare l’efficienza energetica. Per il momento, questa strategia viene adottata solo dal 9% delle imprese, come rivela Forbes: nonostante non sia utilizzata ancora in modo pervasivo per contenere i consumi, l’AI è capace di individuare con anticipo la domanda di risorse e adattare dinamicamente l’allocazione dei workload sui moduli dell’infrastruttura grazie all’automazione di processo e alla sua capacità predittiva.
Facciamo un esempio pratico. La raccolta di dati dai sensori di temperatura, relazionata a quella di consumo energetico e delle prestazioni dei server, permette agli algoritmi di analizzare informazioni chiave per identificare modelli e tendenze. Si possono così analizzare le connessioni tra il carico di lavoro dei server e il consumo energetico, o tra le condizioni ambientali e le prestazioni delle macchine.
In base a questi risultati l’intelligenza artificiale è in grado di prevedere i futuri fabbisogni energetici e ottimizzare le risorse con automazioni per regolare la configurazione delle apparecchiature, è in grado di controllare meglio la loro temperatura e ottimizzare la distribuzione del carico di lavoro evitando surriscaldamenti.
Anche la virtualizzazione è una strada percorribile. Semplicemente implementando un software che simuli una “versione virtuale” di una o più risorse hardware è possibile generare una macchina che consente di eseguire più sistemi operativi o applicazioni sullo stesso server per migliorare le prestazioni, l’efficienza e la flessibilità.
Infine, con la containerizzazione - prassi per eccellenza dell’anti lock-in tecnologico - il concetto di modularità si spinge ancora oltre, con l’obiettivo di isolare le applicazioni in silos più leggeri che richiedono ancor meno risorse rispetto alle macchine virtuali o a quelle tradizionali. Scomporre il più possibile l’architettura per limitare il dispendio energetico è una delle soluzioni in linea con il Green Cloud.
L’implementazione di container in un ambiente multicloud può portare a notevoli risparmi sui costi. Sfruttando questi modelli di architettura è possibile ottimizzare la spesa ed evitare di sovradimensionare le risorse di cui si ha davvero bisogno. La containerizzazione consente poi una distribuzione a densità più elevata, ossia permette un’intelligente calibratura dei workload che sfrutta al 100% il potenziale delle macchine.
Ciò consente non solo di contenere l’ingombro dell’infrastruttura, ma soprattutto di abbattere le spese associate al consumo elettrico. Anche la scalabilità diventa più agile con i container, poiché risulta più facile “crescere o decrescere” in base alla reale domanda di business. Ciò garantisce alle imprese una vera migrazione verso un cloud più verde e decarbonizzato, eliminando gli sprechi - ambientali e finanziari - e minimizzando i costi operativi.