Alla conferenza Cloud Next ’25 è stato svelato Ironwood, il nuovo chip TPU (Tensor Processing Unit) di settima generazione firmato Google. Descritto da Big G come il più potente, scalabile ed efficiente della serie, questo nuovo chip è progettato per supportare le applicazioni AI più complesse, come i Large Language Models e i Mixture of Experts.
Google Ironwood: potenza, memoria e scalabilità per modelli AI complessi
Con Ironwood, Google consolida un cambiamento di paradigma nell’approccio ai modelli di intelligenza artificiale. Si passa da sistemi reattivi, che rispondono a stimoli fornendo dati da interpretare, a modelli inferenziali, capaci di generare autonomamente intuizioni, risposte e ragionamenti. L’obiettivo è costruire AI capaci di “pensare”, anticipare i bisogni e collaborare attivamente con l’essere umano, superando la logica della semplice elaborazione di input.
Per supportare questo passaggio, Ironwood integra una rete Inter-Chip Interconnect (ICI) a banda ultra-larga e latenza bassissima, che collega fino a 9.216 chip raffreddati a liquido in un’unica architettura scalabile. La potenza raggiunta da questa configurazione sfiora i 42,5 exaflops, più di 24 volte quella di El Capitan, il supercomputer più veloce oggi in circolazione. Ogni singolo chip è capace di toccare i 4.614 teraflops, supportando carichi come modelli LLM o MoE di dimensioni e complessità estreme.
Ogni chip Ironwood integra 192 GB di memoria HBM (High Bandwidth Memory), sei volte di più rispetto alla generazione precedente, Trillium. La larghezza di banda per chip arriva a 7,2 TB/s, rendendo l’accesso ai dati rapidissimo. L’ICI ha raggiunto una banda bidirezionale di 1,2 Tbps, che consente una comunicazione fluida e costante tra i chip. Il che è fondamentale per l’addestramento distribuito dei modelli più pesanti.
Uno dei tratti distintivi di Ironwood è la sua efficienza energetica. Google sottolinea un miglioramento di quasi 2 volte in termini di prestazioni per watt rispetto a Trillium, e una potenza per watt 30 volte superiore rispetto alla prima generazione di TPU cloud lanciata nel 2018. L’utilizzo di un avanzato sistema di raffreddamento a liquido permette inoltre di mantenere elevate prestazioni anche sotto carico continuo, superando le limitazioni dei tradizionali sistemi ad aria.
La combinazione di potenza computazionale estrema, maggiore capacità di memoria, interconnessione avanzata e ridotto consumo energetico rende Ironwood il pilastro su cui Google intende costruire il futuro dell’intelligenza artificiale. E se oggi modelli come Gemini 2.5 e AlphaFold già sfruttano i TPU, Ironwood si prepara a spingere ancora più in là i limiti della tecnologia.