IA/ Il report del MIT fa il punto sull’impatto energetico

0
75
IA MIT connessioni

Un nuovo studio del MIT Technology Review offre uno sguardo completo sull’impatto energetico del settore dell’IA, per valutare quale possa essere la sua impronta di carbonio attuale ma anche in un’ottica futura. E’ una ricerca più utile che mai in questo momento, un periodo storico in cui l’intelligenza artificiale è uno strumento che tocca i miliardi di utenti giornalieri. Le richieste quotidiane sono le più disparate: dalla creazione di materiale visivo fino al supporto in ambito di ricerca. ChatGPT si trova al quinto posto nella classifica dei siti web più visitati a livello planetario, in una posizione inferiore rispetto a Instagram ma uno step più in alto rispetto a X. Il fabbisogno energetico di tutto ciò è davvero immenso.

Il report del MIT fa il punto sull’impatto energetico dell’IA / I data center ieri e oggi

Citando Wikipedia: “Un centro elaborazione dati (CED) o in inglese data center è una funzione all’interno di un’organizzazione (impresa, ente pubblico, associazione, ecc.) che coordina e mantiene le apparecchiature ed i servizi di gestione delle risorse informatiche (tra cui i dati), ovvero l’infrastruttura IT, a servizio di uno o più fruitori.” Il consumo di energia elettrica dei data center -sebbene vi sia stata una crescita massiccia del loro numero- dal 2005 al 2017, non ha subito significative variazioni anche per merito dell’incremento dell’efficienza.

Nel 2017, l’intelligenza artificiale ha cominciato a modificare nettamente la situazione. L’elettricità destinata ai data center è raddoppiata, in in quanto la loro progettazione integra ormai hardware ad alto consumo energetico pensati per l’IA. Secondo gli ultimi report il 4,4% dell’intera produzione energetica negli Stati Uniti attualmente afferisce ai data center. Entro il 2028 metà dell’elettricità consumata dai data center servirà per alimentare i tool di intelligenza artificiale.

C’è da dire anche che si dissipa una porzione di energia per via di materiali isolanti imperfetti e lunghi cavi. Senza contare il fatto che molte strutture hanno un consumo giornaliero abnorme di risorse idriche (sovente anche acqua potabile) per i loro interventi di raffreddamento. Nel computo delle risorse impiegate, sono da considerare anche le attività di addestramento dell’Intelligenza Artificiale. Secondo alcune stime, il training di GPT-4 di OpenAI dovrebbe aver impiegato più di 100 milioni di dollari ed un consumo di circa 50 gigawattora (GWh). Questi quantitativi corrispondono a grandi linee al fabbisogno della città San Francisco in tre giorni, per intenderci. 

Il report del MIT fa il punto sull’impatto energetico dell’IA / Quanta energia per ogni richiesta all’IA?

 I risultati che emergono dal report del MIT stimano il costo energetico di modelli con un linguaggio ampio come ChatGPT fra i 114 joule a risposta e i 6.706 joule a risposta (cifre equivalenti rispettivamente all’utilizzo di un microonde per un decimo di secondo e tenerlo in funzione per otto secondi). I modelli IA con un ridotto consumo energetico, secondo gli studiosi del Massachusetts Institute of Technology, impiegano un quantitativo inferiore di energia. Questo risparmio, però, avviene in quanto usano meno parametri, generando delle risposte dalla precisione tendenzialmente minore.

Logicamente i video creati tramite l’intelligenza artificiale necessitano di una quantità di energia nettamente maggiore. La ricerca del MIT Technology Review evidenzia come per la generazione di un video di cinque secondi, un modello di intelligenza artificiale più recente impiega “circa 3,4 milioni di joule, oltre 700 volte l’energia necessaria per generare un’immagine di alta qualità”. Quanto appena detto corrisponde ad un tempo di utilizzo del forno a microonde pari a più di un’ora. E se qualcuno, ad esempio, facesse 15 domande ad un chatbot di IA, chiedesse la creazione di 10 immagini e di 3 video di 5 secondi ciascuno, quanta energia verrebbe consumata? La risposta dei ricercatori è: circa 2,9 kilowattora di elettricità, che equivalgono all’utilizzo di un forno a microonde per oltre 3 ore e mezza.

Il report del MIT fa il punto sull’impatto energetico dell’IA / Da dove proviene questa energia?

“I data center basati sull’intelligenza artificiale necessitano di alimentazione costante, 24 ore su 24, 7 giorni su 7, 365 giorni all’anno.”. Così ha dichiarato Rahul Mewawalla, CEO di Mawson Infrastructure Group. Questi strumenti, infatti, non possono servirsi di tecnologie a carattere intermittente come quella eolica e solare. Mediamente si propende quindi per l’utilizzo di sistemi elettrici più inquinanti. Imprese come Meta, Amazon e Google hanno dichiarato che incrementeranno l’uso di energia nucleare. Hanno garantito l’impegno a triplicare la capacità nucleare mondiale entro il 2050, in modo da mitigare l’utilizzo di combustibili fossili.

Ma ad oggi vi sono certamente delle carenze nell’approvvigionamento energetico. Questa lacuna, insieme alla corsa incessante per l’implementazione di data center che alimentino l’IA, spesso dà luogo a decisioni scarsamente lungimiranti. Lo scorso Aprile, ad esempio, il centro per supercomputer di Elon Musk a Memphis, Tennessee, è stato osservato tramite immagini satellitari. Queste hanno rivelato come il sistema utilizzasse decine di generatori di gas metano violanti il Clear Air Act, secondo il Southern Environmental Law Center.

                                                                                        Maria Maddalena La Ferla