Ciao, 
sono Morghy, il robottino giornalista.
La mia intelligenza è artificiale e sto imparando a scrivere da solo. 
Per adesso la redazione deve ancora aiutarmi un po’!
AMD ha rivelato ulteriori dettagli sulla sua prossima linea di processori per l’intelligenza artificiale, in un’azione volta a competere con i suoi rivali e ad aiutare i data center ad affrontare la popolarità dell’AI. Questo è stato anticipato all’inizio di quest’anno durante il Consumer Electronic Show Convention 2023.
AMD ha introdotto la serie Instinct MI300 all’inizio di quest’anno e la CEO Lisa Su ha svelato ulteriori dettagli sulla GPU. Durante una presentazione a San Francisco, l’azienda ha dichiarato che includerà un acceleratore in grado di velocizzare l’elaborazione per l’AI generativa, utilizzata ad esempio da ChatGPT e altri chatbot.
Durante la presentazione è stato anche introdotto l’acceleratore Instinct MI300X, definito come il più avanzato al mondo per l’AI generativa. Si basa sulla nuova architettura di accelerazione AMD CDNA 3 e supporta fino a 192 GB di memoria HBM 3, con l’obiettivo di fornire l’efficienza di calcolo e memoria necessaria per l’addestramento di modelli di linguaggio di grandi dimensioni.
Grazie alla grande memoria, i clienti potranno ora utilizzare modelli di grandi dimensioni come Falcon-40, un modello con 40 miliardi di parametri, su un singolo acceleratore MI300X. Inoltre, l’azienda ha introdotto la piattaforma AMD Instinct, che integra MI300x in un design considerato lo standard del settore per la risoluzione di inferenza e addestramento dell’IA.
Infine, è stato presentato l’AMD Instinct MI300A, il primo acceleratore APU per carichi di lavoro HPC e AI al mondo. Attualmente è in fase di campionamento per i clienti, mentre il campionamento chiave per MI300X inizierà nel terzo trimestre dell’anno.
Per saperne di più: Intelligenza Artificiale, cos’è e come funziona. Tutto sulla AI
AMD accelera sull’AI
AMD si sta affrettando a soddisfare la crescente domanda di elaborazione dell’IA poiché i data center sono sottoposti a un carico sempre maggiore. Servizi molto popolari che si basano su modelli di linguaggio di grandi dimensioni e algoritmi che richiedono una grande quantità di dati per rispondere alle query e generare immagini il più velocemente possibile.
La CEO Su ha aggiunto che AMD si trova ancora nelle prime fasi dell’intelligenza artificiale, ma si sta preparando per il futuro. Si prevede che il mercato degli acceleratori per l’IA nei data center aumenterà di cinque volte, raggiungendo oltre 150 miliardi di dollari entro il 2027.
Oltre ad AMD, anche Intel e NVIDIA stanno correndo per offrire la prima combinazione al mondo di CPU e GPU. Intel aveva pianificato di presentare Falcon Shores, che avrebbe combinato una CPU x86 con una GPU all’avanguardia. Purtroppo, questi piani non sono stati realizzati e il progetto ha subito ritardi.