TranslateGemma, la traduzione automatica secondo Google

Dalla tecnologia Gemini a Gemma 3, Google rilancia sull’AI per la traduzione globale open source

Redazione

A qualche giorno dal lancio di ChatGPT Translate, Google rilancia con TranslateGemma, una nuova collezione di modelli di traduzione basati su Gemma 3, pensati per offrire alta qualità, grande efficienza e ampia copertura linguistica, anche su dispositivi con risorse limitate. I modelli sono disponibili per il download su Kaggle e Hugging Face in tre dimensioni – 4B, 12B e 27B parametri – e supportano 55 lingue.

Efficienza e qualità: modelli più piccoli, prestazioni superiori

Uno degli aspetti più rilevanti di TranslateGemma è l’equilibrio tra dimensioni e prestazioni. Secondo la valutazione tecnica di Google, il modello TranslateGemma 12B supera il Gemma 3 27B di riferimento nel benchmark WMT24++, misurato con la metrica MetricX. In altre parole, un modello con meno della metà dei parametri riesce a ottenere risultati migliori in termini di qualità della traduzione.

Per gli sviluppatori, questo significa poter contare su traduzioni ad alta fedeltà con minori costi computazionali, maggiore throughput e latenza più bassa, senza sacrificare l’accuratezza. Anche il modello più compatto, il 4B, si distingue: le sue prestazioni sono paragonabili a quelle del modello 12B di base, rendendolo adatto all’inferenza su dispositivi mobili.

Google ha condotto i test sul dataset WMT24++, che copre 55 lingue appartenenti a famiglie linguistiche diverse, includendo lingue ad alta, media e bassa disponibilità di dati. In tutti i casi, TranslateGemma ha ridotto sensibilmente il tasso di errore rispetto al modello Gemma di partenza, migliorando la qualità complessiva con una maggiore efficienza.

Dalla tecnologia Gemini alla copertura globale delle lingue

La densità di “intelligenza” dei modelli TranslateGemma deriva da un processo di addestramento in due fasi, progettato per trasferire le capacità dei modelli Gemini in un’architettura open. La prima fase è stata una Supervised Fine-Tuning (SFT), basata su un ampio insieme di dati paralleli che combina traduzioni umane e traduzioni sintetiche di alta qualità generate dai modelli Gemini, garantendo copertura e affidabilità anche per le lingue con meno risorse. La seconda fase ha introdotto il Reinforcement Learning (RL), utilizzando un insieme di modelli di ricompensa e metriche avanzate come MetricX-QE e AutoMQM, per rendere le traduzioni più naturali e contestualmente accurate.

Oltre alle 55 lingue valutate in modo rigoroso, TranslateGemma è stato addestrato anche su quasi 500 coppie linguistiche aggiuntive. Pur non essendo ancora disponibili metriche di valutazione confermate per questo insieme esteso, l’obiettivo è offrire una base solida per ricercatori e sviluppatori che vogliano specializzare ulteriormente i modelli o migliorare la qualità per lingue a bassa disponibilità di dati.

I modelli mantengono inoltre le capacità multimodali di Gemma 3. Nei test sul benchmark Vistra, le migliorie nella traduzione testuale si riflettono anche nella capacità di tradurre testi presenti nelle immagini, nonostante TranslateGemma non sia sottoposto a un addestramento multimodale specifico.

Dal punto di vista del deployment, TranslateGemma è pensato per funzionare ovunque: il 4B è ottimizzato per mobile ed edge, il 12B può girare su laptop consumer, mentre il 27B è progettato per la massima fedeltà e può essere eseguito su una singola GPU H100 o TPU in cloud.

Iscriviti alla newsletter

Non inviamo spam! Leggi la nostra Informativa sulla privacy per avere maggiori informazioni.