IBM ha presentato Telum, il suo primo chip con accelerazione dell’inferenza AI che gli consentirà di svolgere attività come per esempio il rilevamento delle frodi mentre è in corso una transazione, come riporta Zdnet.
“Il chip contiene 8 core di processore con una pipeline di istruzioni out-of-order super-scalare, in esecuzione con una frequenza di clock superiore a 5 GHz, ottimizzata per le esigenze di carichi di lavoro di classe enterprise eterogenei”, ha affermato IBM.
“La cache completamente riprogettata e l’infrastruttura di interconnessione dei chip fornisce 32 MB di cache per core e può scalare fino a 32 chip Telum. Il design del modulo a doppio chip contiene 22 miliardi di transistor e 19 miglia di filo su 17 strati di metallo”. Il chip è stato realizzato con la tecnologia a 7nm ultravioletta estrema creata da Samsung e rappresenta il coinvolgimento iniziale dell’IBM Research AI Hardware Center. In sviluppo da tre anni, il primo sistema che utilizza il chip è previsto per la prima metà del 2022.
Anthony Saporito, membro dello staff tecnico senior per lo sviluppo dell’hardware IBM Z, ha affermato che le cache L2 possono combinarsi e formare una cache L3 virtuale da 256 MB e fino a otto chip Telum potrebbero combinarsi per formare una cache L4 virtuale da 2 GB.
“Una delle innovazioni chiave sul design Telum è che abbiamo costruito un acceleratore AI direttamente sul silicio del chip e abbiamo collegato direttamente tutti i core e costruito un ecosistema sullo stack, attraverso la progettazione hardware, attraverso il firmware e attraverso i sistemi operativi e il software che consente di portare questo deep learning nelle transazioni, tutte le transazioni”, ha affermato.
I dati forniti tramite l’IT sono diventati il cuore e l’anima della maggior parte delle organizzazioni, quindi non dovrebbe sorprendere l’importanza della “protezione dei dati” all’interno dei team IT.
“Quella parte del design è un design collaborativo davvero interessante che abbiamo realizzato tra il gruppo di ricerca e il gruppo dei sistemi, e quel design direttamente connesso creato per l’inferenza di deep learning ci consente di funzionare su larga scala.
“Quelle migliaia e migliaia di transazioni al secondo… con questa tecnologia sono in grado di eseguire inferenze di apprendimento profondo in tempo reale, rilevamento di frodi e analisi e ottenere informazioni dettagliate poiché tali transazioni sono in esecuzione nel sistema e sono in grado di farlo su larga scala e con tutta l’affidabilità e zero tempi di inattività, è fondamentale per questa piattaforma”.
A maggio, IBM Research ha creato un semiconduttore di prova con fabbricazione a 2 nm che, secondo Big Blue, avrebbe migliorato le prestazioni del 45% utilizzando la stessa quantità di energia o utilizzato il 75% in meno di energia rispetto ai chip a 7 nm.
La tecnologia a 2 nm entrerà in produzione verso la fine del 2024. L’utilizzo di massa potrebbe arrivare intorno al 2025.
“È entusiasmante perché la produzione più avanzata al mondo è in circa 7 nm e siamo qui per mostrare che potremmo mettere insieme un transistor da 2 nm”, ha dichiarato il vicepresidente di IBM Research Mukesh Khare.