IBM svela i chip Telum per i carichi di lavoro di inferenza dell’AI

IBM ha presentato Telum, chip con accelerazione dell’inferenza AI per il rilevamento delle frodi mentre è in corso una transazione

Redazione
IBM, chip shortage, semiconduttori, Nissan, intelligenza artificiale, Intel

IBM ha presentato Telum, il suo primo chip con accelerazione dell’inferenza AI che gli consentirà di svolgere attività come per esempio il rilevamento delle frodi mentre è in corso una transazione, come riporta Zdnet.

“Il chip contiene 8 core di processore con una pipeline di istruzioni out-of-order super-scalare, in esecuzione con una frequenza di clock superiore a 5 GHz, ottimizzata per le esigenze di carichi di lavoro di classe enterprise eterogenei”, ha affermato IBM.

“La cache completamente riprogettata e l’infrastruttura di interconnessione dei chip fornisce 32 MB di cache per core e può scalare fino a 32 chip Telum. Il design del modulo a doppio chip contiene 22 miliardi di transistor e 19 miglia di filo su 17 strati di metallo”. Il chip è stato realizzato con la tecnologia a 7nm ultravioletta estrema creata da Samsung e rappresenta il coinvolgimento iniziale dell’IBM Research AI Hardware Center. In sviluppo da tre anni, il primo sistema che utilizza il chip è previsto per la prima metà del 2022.

Anthony Saporito, membro dello staff tecnico senior per lo sviluppo dell’hardware IBM Z, ha affermato che le cache L2 possono combinarsi e formare una cache L3 virtuale da 256 MB e fino a otto chip Telum potrebbero combinarsi per formare una cache L4 virtuale da 2 GB.

“Una delle innovazioni chiave sul design Telum è che abbiamo costruito un acceleratore AI direttamente sul silicio del chip e abbiamo collegato direttamente tutti i core e costruito un ecosistema sullo stack, attraverso la progettazione hardware, attraverso il firmware e attraverso i sistemi operativi e il software che consente di portare questo deep learning nelle transazioni, tutte le transazioni”, ha affermato.

I dati forniti tramite l’IT sono diventati il ​​cuore e l’anima della maggior parte delle organizzazioni, quindi non dovrebbe sorprendere l’importanza della “protezione dei dati” all’interno dei team IT.

“Quella parte del design è un design collaborativo davvero interessante che abbiamo realizzato tra il gruppo di ricerca e il gruppo dei sistemi, e quel design direttamente connesso creato per l’inferenza di deep learning ci consente di funzionare su larga scala.

“Quelle migliaia e migliaia di transazioni al secondo… con questa tecnologia sono in grado di eseguire inferenze di apprendimento profondo in tempo reale, rilevamento di frodi e analisi e ottenere informazioni dettagliate poiché tali transazioni sono in esecuzione nel sistema e sono in grado di farlo su larga scala e con tutta l’affidabilità e zero tempi di inattività, è fondamentale per questa piattaforma”.

A maggio, IBM Research ha creato un semiconduttore di prova con fabbricazione a 2 nm che, secondo Big Blue, avrebbe migliorato le prestazioni del 45% utilizzando la stessa quantità di energia o utilizzato il 75% in meno di energia rispetto ai chip a 7 nm.

La tecnologia a 2 nm entrerà in produzione verso la fine del 2024. L’utilizzo di massa potrebbe arrivare intorno al 2025.

“È entusiasmante perché la produzione più avanzata al mondo è in circa 7 nm e siamo qui per mostrare che potremmo mettere insieme un transistor da 2 nm”, ha dichiarato il vicepresidente di IBM Research Mukesh Khare.

Iscriviti alla newsletter

Non inviamo spam! Leggi la nostra Informativa sulla privacy per avere maggiori informazioni.