Il consumo energetico dei modelli AI è ormai un problema centrale, e soluzioni innovative sono ora più che mai necessarie. Come quella dell’azienda BitEnergy AI, che ha sviluppato un nuovo algoritmo chiamato Linear-Complexity Multiplication (L-Mul), che promette di ridurre il consumo energetico dei modelli AI fino al 95%, senza compromettere le prestazioni.
L’impatto del consumo di energia dell’intelligenza artificiale
La crescente diffusione di applicazioni AI, come ChatGPT, ha portato a un aumento considerevole della domanda di energia. Un singolo modello come ChatGPT richiede quotidianamente circa 564 MWh, l’equivalente dell’energia necessaria per alimentare 18.000 abitazioni.
E anche le stime future sono altrettanto preoccupanti. Riferisce il sito di informazione Hardware Upgrade, gli analisti del Cambridge Centre for Alternative Finance prevedono che il consumo energetico delle tecnologie AI arriverà in futuro intorno a 85-134 TWh all’anno entro il 2027. Questo aumento esponenziale dei consumi richiede pertanto soluzioni innovative, e l’algoritmo L-Mul può garantire un futuro sostenibile per l’AI.
Per saperne di più: Intelligenza artificiale: cos’è e come funziona, tutto sulla AI
L-Mul, l’algoritmo che cambia le regole del gioco
L’algoritmo L-Mul si basa su un’idea semplice quanto innovativa: sostituire le complesse moltiplicazioni in virgola mobile (floating-point multiplication) con più semplici addizioni di numeri interi. Per intenderci, in analisi numerica la virgola mobile indica il metodo di rappresentazione dei numeri reali e di elaborazione dei dati, che viene usato in generale dai processori per compiere operazioni matematiche.
Ad oggi le operazioni in virgola mobile, tipicamente utilizzate anche nei modelli AI, sono tra le più energivore: per questo, ridurre la loro frequenza può comportare un significativo risparmio energetico.
Secondo lo studio condotto da BitEnergy AI, e pubblicato sulla rivista scientifica ArXiv, L-Mul può ridurre il consumo energetico del 95% nelle moltiplicazioni tensoriali e dell’80% nei prodotti scalari. Questi risultati sono stati confermati attraverso ulteriori test su modelli AI basati su Transformer, come GPT, che hanno mantenuto l’accuratezza delle prestazioni anche con l’adozione di questa tecnologia.
Nonostante i risultati promettenti, l’implementazione di L-Mul non è priva di difficoltà. Attualmente, l’algoritmo richiede hardware specializzato, poiché le tecnologie di elaborazione AI esistenti non sono ottimizzate per sfruttare questa nuova tecnica. BitEnergy AI sta lavorando allo sviluppo di hardware dedicato e di API di programmazione per facilitare l’adozione di L-Mul su larga scala.
Se però si riuscisse ad adottarlo su larga scala, questo algoritmo potrebbe rappresentare un punto di svolta per l’intero settore, riducendo significativamente l’impatto ambientale delle tecnologie AI senza compromettere la loro efficacia.