Secondo uno studio, questa nuova tecnica ha il potenziale di ridurre il consumo energetico fino al 95%. L'algoritmo, chiamato "Moltiplicazione a Complessità Lineare" (L-Mul), si basa sull'addizione di numeri interi, che richiede molta meno energia rispetto alla moltiplicazione in virgola mobile tipicamente utilizzata nei compiti legati all'IA, come riportato da TechSpot.
Attualmente, i numeri in virgola mobile sono essenziali nei calcoli dell'IA per gestire valori estremamente grandi o piccoli, offrendo una precisione simile a quella binaria che consente calcoli complessi accurati. Tuttavia, questa precisione ha un costo elevato in termini di energia, sollevando preoccupazioni poiché alcuni modelli di IA richiedono enormi quantità di elettricità. Ad esempio, l'esecuzione di ChatGPT consuma abbastanza elettricità da alimentare 18.000 famiglie statunitensi al giorno, pari a 564 MWh al giorno. Gli analisti del Cambridge Centre for Alternative Finance prevedono che entro il 2027, l'industria dell'IA potrebbe consumare tra 85 e 134 TWh all'anno.
L'algoritmo L-Mul affronta questo problema sostituendo le complesse operazioni in virgola mobile con semplici addizioni di numeri interi. Durante i test, i modelli di IA hanno mantenuto la loro accuratezza, con le operazioni tensoriali che hanno ridotto il consumo energetico del 95% e le operazioni scalari dell'80%.
L-Mul non solo riduce il consumo energetico, ma migliora anche le prestazioni. Supera gli attuali standard di calcolo a 8 bit, offrendo maggiore precisione con meno operazioni a livello di bit. In vari compiti di IA come l'elaborazione del linguaggio naturale e la visione artificiale, il degrado delle prestazioni è stato solo dello 0,07%, un compromesso trascurabile considerando il grande risparmio energetico.
I modelli basati su Transformer, come GPT, possono trarre il massimo beneficio da L-Mul, poiché l'algoritmo può essere facilmente integrato in questi sistemi. I test su modelli di IA popolari come Llama e Mistral hanno persino mostrato un miglioramento dell'accuratezza per alcuni compiti.
Tuttavia, lo svantaggio è che L-Mul richiede hardware specializzato e gli attuali acceleratori di IA non sono ancora ottimizzati per questo metodo. La buona notizia è che sono già in corso sforzi per sviluppare tale hardware e API.
Un potenziale ostacolo potrebbe essere la resistenza dei principali produttori di chip come Nvidia, che potrebbe rallentare l'adozione di questa nuova tecnologia. Essendo un leader nella produzione di hardware per l'IA, Nvidia potrebbe essere riluttante a cedere la sua posizione dominante a soluzioni più efficienti dal punto di vista energetico.