Microsoft BitNet, l’intelligenza artificiale “leggera” che sfida i giganti

Con soli 400 MB di memoria, il nuovo modello firmato Microsoft ridefinisce gli standard dell’efficienza nel mondo dell’intelligenza artificiale

morghy il robottino giornalista
Morghy, il robottino giornalista

Microsoft ha presentato BitNet b1.58 2B4T, un nuovo modello linguistico che segna un punto di svolta nell’ambito dell’intelligenza artificiale. Con un approccio radicalmente diverso rispetto agli standard attuali, il modello utilizza una forma di quantizzazione ternaria che consente di ridurre drasticamente il consumo di memoria, pur mantenendo ottime prestazioni. La promessa? Portare l’intelligenza artificiale avanzata su dispositivi comuni, senza bisogno di hardware specializzato.

Microsoft BitNet, una struttura leggera per un’intelligenza potente

Alla base di BitNet b1.58 2B4T ci sono due miliardi di parametri, ma ciò che lo rende davvero innovativo è il modo in cui questi vengono rappresentati. Anziché ricorrere ai classici numeri in virgola mobile da 16 o 32 bit, il modello impiega solo tre valori discreti: -1, 0 e +1. Questo sistema – noto come quantizzazione ternaria – permette di archiviare ogni parametro in appena 1,58 bit, riducendo drasticamente il peso complessivo del modello.

Grazie a questa ottimizzazione, BitNet riesce a funzionare su CPU standard, come il chip Apple M2, senza il bisogno di GPU costose. È una rivoluzione silenziosa che apre la strada a un’AI più democratica, accessibile anche su laptop e dispositivi non professionali.

Prestazioni solide con un addestramento monumentale

Per compensare la precisione ridotta dovuta alla quantizzazione, Microsoft ha sottoposto BitNet a un addestramento intensivo su un corpus da quattro trilioni di token – un volume paragonabile a 33 milioni di libri. Questo ha permesso al modello di eccellere in compiti come la risoluzione di problemi di matematica elementare e il ragionamento di buon senso.

I test comparativi hanno mostrato risultati sorprendenti: in alcune aree, BitNet ha superato modelli concorrenti come Llama 3.2 1B di Meta, Gemma 3 1B di Google e Qwen 2.5 1.5B di Alibaba. Nonostante l’apparente semplicità dell’architettura, il modello riesce a garantire risposte accurate e coerenti in una varietà di contesti.

Il framework bitnet.cpp: il motore segreto dell’efficienza

A rendere possibile tutto ciò è bitnet.cpp, un framework software progettato appositamente per sfruttare i vantaggi della quantizzazione ternaria. Questa libreria, disponibile su GitHub, consente al modello di operare con rapidità ed efficienza su CPU tradizionali. Le librerie AI più diffuse, come Transformers di Hugging Face, non sono ottimizzate per questo tipo di approccio, rendendo essenziale l’uso di bitnet.cpp.

Attualmente il framework supporta solo determinati tipi di hardware, ma Microsoft ha già annunciato l’estensione a nuove architetture nei prossimi aggiornamenti. L’obiettivo è chiaro: rendere BitNet compatibile con un numero crescente di dispositivi, pur mantenendo intatta la sua leggerezza computazionale.

Limiti attuali e prospettive future

Nonostante le sue performance, BitNet b1.58 2B4T non è privo di limiti. Il modello ha una finestra di contesto relativamente ristretta, ovvero può gestire meno testo alla volta rispetto ad altri LLM più avanzati. Inoltre, al momento supporta solo l’esecuzione tramite bitnet.cpp e su hardware specifico.

Ciò non toglie che il team di ricerca Microsoft stia già lavorando all’evoluzione del progetto: si punta all’estensione del supporto linguistico e alla gestione di input testuali più lunghi. Un’ulteriore sfida sarà comprendere meglio perché un’architettura tanto semplice riesca a funzionare così bene — una domanda che potrebbe portare a nuove riflessioni sull’intero campo del deep learning.

Iscriviti alla newsletter

Non inviamo spam! Leggi la nostra Informativa sulla privacy per avere maggiori informazioni.