Google verso il carbon free: tutte le prospettive per il futuro

Sara Giannaccini
Google

Dal 2017 e per il quarto anno consecutivo, Google fa coincidere il proprio consumo di energia con il 100% di energie rinnovabili.


Come si legge sul blog ufficiale di Google, l’anno scorso il colosso di Mountain View ha fissato l’ambizioso obiettivo di operare 24 ore su 24, 7 giorni su 7, senza emissioni di anidride carbonica, ovunque, entro la fine del decennio. Allo stesso tempo, i sistemi di apprendimento automatico stanno rapidamente diventando più grandi e più capaci. Quale sarà l’impatto ambientale di questi sistemi e come possiamo neutralizzarlo in futuro? 

Google ha pubblicato un’analisi dettagliata che affronta entrambe queste domande. È un resoconto dei costi energetici e di carbonio dell’addestramento di sei modelli di machine learning all’avanguardia. 

Google ha scoperto che lo sviluppo del modello Evolved Transformer, una versione più efficiente della popolare architettura Transformer per ML, ha emesso quasi 100 volte meno diossido di carbonio equivalente rispetto a una stima ampiamente citata. Dei circa 12,7 terawattora di elettricità che Google utilizza ogni anno, meno di 1 / 200esimo percento è stato speso per addestrare i modelli più esigenti dal punto di vista computazionale.  

L’analisi ha poi rilevato che esistono già molti modi per sviluppare e addestrare i sistemi Machine Learning in modo ancora più efficiente: modelli, processori e data center appositamente progettati possono ridurre drasticamente il fabbisogno energetico, mentre la giusta selezione di fonti energetiche può fare molto per ridurre il carbonio emesso durante l’allenamento. In effetti, la giusta combinazione di modello, processore, data center e fonte di energia può ridurre l’impronta di carbonio dell’addestramento di un sistema Machine Learning di 1000 volte. 

Ridurre al minimo l’impronta di carbonio di un sistema è un problema in due parti: prima si desidera ridurre al minimo l’energia consumata dal sistema, quindi è necessario fornire quell’energia dalla fonte più pulita possibile.

L’analisi di Google ha esaminato più da vicino GShard e Switch Transformer, due modelli recentemente sviluppati da Google Research. Sono i modelli più grandi creati dall’azienda, ma entrambi utilizzano una tecnica chiamata attivazione sparsa che consente loro di utilizzare solo una piccola parte della loro architettura totale per una determinata attività. Il risultato è che questi modelli sparsi consumano meno di un decimo dell’energia che ci si aspetterebbe da modelli densi di dimensioni simili, senza sacrificare la precisione.

Ma per ridurre al minimo il consumo di energia, sono necessari processori e data center efficienti per addestrarli e servirli. Le unità di elaborazione tensoriale (TPU) di Google sono progettate specificamente per l’apprendimento automatico, il che le rende fino a cinque volte più efficienti rispetto ai processori standard. E i data center di cloud computing che ospitano tali TPU sono fino a due volte più efficienti dei tipici data center aziendali. 

Una volta ridotto al minimo il tuo fabbisogno energetico, occorre pensare a dove ha origine quell’energia. L’elettricità consumata da un data center è determinata dalla rete in cui si trova. E a seconda di quali risorse sono state utilizzate per generare l’elettricità su quella rete, questo potrebbe emettere carbonio. 

L’intensità di carbonio delle griglie varia notevolmente tra le regioni, quindi è davvero importante dove vengono addestrati i modelli. Ad esempio, il mix di fornitura di energia al data center dell’Iowa di Google produce 0,080 kg di CO2e per chilowattora di elettricità, quando si combina l’elettricità fornita dalla rete e prodotta dai parchi eolici di Google in Iowa. Questo è 5,4 volte inferiore alla media degli Stati Uniti. 

Ognuno di questi quattro fattori – modelli, chip, data center e fonti di energia – può avere un effetto considerevole sui costi associati allo sviluppo di un sistema machine learning. Ma il loro impatto cumulativo può essere enorme.

Come risultato dell’analisi, Google ha già iniziato a cambiare il modo in cui addestra i modelli ML ad alta intensità di calcolo. Sta inoltre ottimizzando l’efficienza del data center spostando le attività di elaborazione a tempi in cui le fonti di energia a basse emissioni di carbonio sono più abbondanti. 

Prospettive ribadite anche da Sundar Pichai, CEO di Google e Alphabet in occasione della Giornata della Terra, che si celebra oggi, 22 aprile: “Entro un decennio miriamo a far funzionare ogni data center, regione cloud e campus di Google esclusivamente con energia rinnovabile. Sono orgoglioso di annunciare che adesso cinque dei nostri data center in Danimarca, Finlandia, Iowa, Oklahoma e Oregon operano per il 90% con energia priva di emissioni di carbonio“, ha detto il CEO, ripreso da Ansa.

Già dal 2017 e per il quarto anno consecutivo, Google fa coincidere il proprio consumo di energia con il 100% di energie rinnovabili.

Il colosso ha investito 4 miliardi di dollari per l’acquisto di energia pulita in oltre 50 progetti eolici e solari a livello globale, fino al 2034 e mira, entro il 2030, a usare energia totalmente carbon free 24 ore su 24, sette giorni su sette. “A settembre 2020, ci siamo impegnati a proporre nuovi modi in cui i nostri prodotti possono aiutare 1 miliardo di persone a fare scelte sostenibili” prosegue l’amministratore delegato.

Prospettive che riverberano anche lungo i prodotti: “Presto, Google Maps utilizzerà per impostazione predefinita il percorso con l’impronta di carbonio più bassa e consentirà di confrontare l’impatto di carbonio relativo ai vari percorsi. Già alcuni nostri prodotti, come i termostati Nest, permettono ai clienti di risparmiare miliardi di kWh di energia“, ha concluso.

AI WEEK 2021