Nvidia ha annunciato che i sistemi basati sulle sue unità di elaborazione grafica (GPU) offrono prestazioni da 3 a 5 volte migliori quando si tratta di addestrare modelli di intelligenza artificiale rispetto ai risultati raggiunti un anno fa, secondo gli ultimi benchmark MLPerf.
Il benchmark MLPerf è gestito dalla MLCommons Association, consorzio sostenuto da Alibaba, Facebook AI, Google, Intel, Nvidia che funge da amministratore indipendente.
Come riporta VentureBeat, l’ultima serie di benchmark copre otto diversi carichi di lavoro che indagano una vasta gamma di casi d’uso per la formazione del modello di intelligenza artificiale, tra cui riconoscimento vocale, elaborazione del linguaggio naturale, rilevamento di oggetti e apprendimento per rinforzo. Nvidia afferma che i suoi partner OEM sono stati gli unici fornitori di sistemi a eseguire tutti i carichi di lavoro definiti dal benchmark MLPerf su un totale di 4.096 GPU.
Nvidia afferma che nel complesso è migliorata più di tutti i suoi rivali, offrendo prestazioni fino a 2,1 volte superiori rispetto ai benchmark eseguiti un anno prima. Certo, non è chiaro fino a che punto le organizzazioni IT facciano affidamento sui benchmark dei consorzi per decidere quale classe di sistema acquisire. Ogni carico di lavoro distribuito da un team IT è abbastanza unico, quindi i benchmark non sono una garanzia delle prestazioni effettive. Probabilmente, la cosa più convincente degli ultimi risultati dei benchmark è che mostrano che i sistemi acquisiti l’anno scorso o anche prima continuano a migliorare le prestazioni complessive man mano che vengono effettuati gli aggiornamenti software. Questo maggiore livello di prestazioni potrebbe ridurre il ritmo con cui potrebbe essere necessario sostituire i sistemi basati su Nvidia.
Indipendentemente dalla piattaforma utilizzata, il numero di modelli di intelligenza artificiale in fase di addestramento continua ad aumentare costantemente. Non mancano i casi d’uso che coinvolgono applicazioni che potrebbero essere potenziate utilizzando l’intelligenza artificiale. La sfida in molte organizzazioni ora è dare la priorità ai progetti di intelligenza artificiale dato il costo delle piattaforme basate su GPU. Naturalmente, con l’aumento del consumo di GPU, il costo di produzione alla fine diminuirà.