OpenAI presenta GPT‑5.4 mini e nano: intelligenza artificiale più veloce ed efficiente

I modelli più piccoli di OpenAI combinano rapidità e precisione, ideali per flussi di lavoro complessi e applicazioni multimodali

Redazione

E dopo la versione base, OpenAI lancia GPT‑5.4 mini e nano, modelli compatti che portano le capacità di GPT‑5.4 in versioni più veloci ed efficienti, pensate per gestire carichi di lavoro ad alto volume senza sacrificare prestazioni. I nuovi modelli sono progettati per rispondere rapidamente, supportare attività multimodali e ottimizzare i costi, segnando un passo avanti nella flessibilità dei modelli di intelligenza artificiale.

Prestazioni avanzate per programmazione e ragionamento

GPT‑5.4 mini rappresenta un significativo miglioramento rispetto a GPT‑5 mini, con avanzamenti in programmazione, ragionamento, comprensione multimodale e uso degli strumenti. Nei benchmark pubblici, il modello si avvicina alle prestazioni di GPT‑5.4, registrando risultati elevati su SWE-Bench Pro, Terminal-Bench 2.0, Toolathlon e OSWorld-Verified.

Il modello è pensato per contesti in cui la latenza incide sull’esperienza: assistenti di programmazione reattivi, sotto-agenti per compiti di supporto e applicazioni multimodali in grado di elaborare immagini in tempo reale. Secondo OpenAI, grazie a una velocità superiore al doppio rispetto a GPT‑5 mini, GPT‑5.4 mini consente di completare iterazioni rapide su codice, generare front-end, navigare codebase e gestire cicli di debugging con costi contenuti.

I clienti che hanno testato il modello, tra cui Hebbia, TinyFish e Whoop, ne lodano le prestazioni end-to-end, la robustezza nell’attribuzione delle fonti e la capacità di superare modelli concorrenti in attività di output e recupero delle citazioni.

GPT‑5.4 nano: velocità e costo ottimizzati

Per esigenze in cui velocità e costo sono prioritari, OpenAI introduce GPT‑5.4 nano, la versione più piccola e rapida del modello. Pur con dimensioni ridotte, garantisce performance significativamente superiori rispetto a GPT‑5 nano e si adatta a compiti come classificazione, estrazione dati, ranking e supporto tramite sotto-agenti.

GPT‑5.4 mini e nano permettono inoltre una gestione efficiente dei flussi di lavoro con modelli di diverse dimensioni. In sistemi come Codex, GPT‑5.4 può occuparsi di pianificazione e decisione finale, mentre i subagenti mini completano rapidamente compiti specifici, dalla revisione di file di grandi dimensioni all’elaborazione di documenti di supporto. Questo approccio aumenta la scalabilità e la rapidità complessiva dei processi gestiti da AI.

Uso multimodale e disponibilità

GPT‑5.4 mini eccelle anche nelle attività multimodali, interpretando rapidamente screenshot e interfacce complesse per velocizzare compiti legati all’uso del computer. Nei test OSWorld-Verified, il modello si avvicina alle prestazioni di GPT‑5.4, superando nettamente GPT‑5 mini.

Il modello è già disponibile su API, Codex e ChatGPT. Sull’API supporta input di testo e immagini, function calling, uso degli strumenti, ricerca web e di file, uso del computer e skills, con una finestra di contesto di 400k token. I costi stimati sono di 0,75 USD per 1M token di input e 4,50 USD per 1M token di output. GPT‑5.4 nano, disponibile solo nell’API, costa 0,20 USD per 1M token di input e 1,25 USD per 1M token di output.

In Codex, GPT‑5.4 mini consuma solo il 30% della quota di GPT‑5.4, permettendo agli sviluppatori di eseguire attività di programmazione meno intensive a un terzo del costo, mentre su ChatGPT è disponibile per utenti Free e Go tramite la funzionalità “Thinking”, con fallback automatico quando si raggiungono i limiti di velocità del modello standard.

Iscriviti alla newsletter

Non inviamo spam! Leggi la nostra Informativa sulla privacy per avere maggiori informazioni.