L’adozione delle memorie ad alta larghezza di banda (High-Bandwidth Memory, HBM) sta rapidamente trasformando il settore dei semiconduttori, guidata dalla crescente domanda di applicazioni legate all’intelligenza artificiale. Questa tecnologia è essenziale per le GPU e gli acceleratori utilizzati nei data center moderni, offrendo larghezze di banda elevate indispensabili per i carichi di lavoro AI. Tuttavia, la produzione intensiva di HBM influisce direttamente sulla disponibilità e sui prezzi delle memorie tradizionali, come DDR5 e NAND, con effetti già visibili sul mercato consumer.
Come HBM modifica la produzione di DRAM e NAND
Le memorie HBM differiscono dalle DRAM standard utilizzate nei PC per il loro design stacked: chip DRAM impilati verticalmente e collegati tramite through-silicon vias (TSV), montati su un interposer insieme alla logica del processore. Questo approccio consente larghezze di banda molto superiori, essenziali per i workload AI, ma richiede una quantità di materiali e capacità produttiva significativamente maggiore rispetto alle DRAM tradizionali.
Secondo Tom’s Hardware, ogni gigabyte di HBM consuma circa tre volte la superficie di wafer di un gigabyte di DDR5, un dato che rende evidente la pressione sulle linee produttive. Le risorse impegnate nella fabbricazione di HBM sottraggono capacità alle DRAM e NAND destinate ai PC e ai dispositivi consumer, con un effetto immediato sui volumi disponibili e sui costi. Nonostante la produzione di DRAM non si sia fermata, la capacità flat e la priorità verso i segmenti AI fanno sì che le memorie tradizionali siano sempre più sotto pressione.
Prezzi in aumento e disponibilità ridotta per il mercato consumer
L’espansione di HBM e della DRAM per server ha già provocato un aumento dei prezzi della memoria standard e una disponibilità più limitata per il mercato PC. Produttori come Micron prevedono che la carenza di DRAM destinata ai consumatori possa perdurare fino al 2027, penalizzando i segmenti più tradizionali. Allo stesso tempo, aziende come Samsung hanno incrementato i prezzi dei chip di memoria, riflettendo la forte domanda dei segmenti enterprise e AI.
La spinta verso workload centrati sull’intelligenza artificiale ha anche accelerato gli investimenti in linee produttive avanzate, comprese fabbriche dedicate a HBM, ma la costruzione di nuove strutture richiede anni e le capacità aggiuntive non saranno disponibili a breve. Nel frattempo, HBM continua a occupare quote crescenti delle risorse produttive globali, con effetti concreti su costi, disponibilità e tempistiche di lancio dei prodotti consumer.