OpenAI presenta due nuovi modelli AI avanzati e “aperti”

OpenAI presenta gpt-oss-120B e 20B, che portano potenza e accessibilità su qualsiasi macchina, anche con risorse hardware limitate

Redazione

OpenAI ha appena lanciato gpt-oss-120B e gpt-oss-20B, due modelli di machine learning che si presentano come i più avanzati modelli di ragionamento open-weight mai rilasciati finora. Il debutto rappresenta un ulteriore passo verso la democratizzazione dell’intelligenza artificiale, portando capacità computazionali elevate anche in contesti dove le risorse hardware sono ridotte. E lo fa mantenendo una licenza open pensata per garantire massima libertà di utilizzo.

gpt-oss-120B e 20B: ecco i due nuovi modelli open-weight di OpenAI

I nuovi modelli OpenAI promettono ragionamento avanzato senza bisogno di cloud o supercomputer: gpt-oss-120B e 20B sono infatti pensati per funzionare ovunque, con strumenti e licenze aperte a tutti. Vediamo meglio come sono.

gpt-oss-120B: capacità da top di gamma con una sola GPU

Il modello di punta, gpt-oss-120B, è progettato per offrire prestazioni di ragionamento paragonabili a quelle del modello o4-Mini, già noto per la sua efficienza. Il dato sorprendente? Funziona con una sola GPU, a patto che sia dotata di 80 GB di RAM. Un risultato che apre possibilità enormi per chi sviluppa applicazioni AI su hardware avanzato ma non necessariamente su infrastrutture cloud complesse.

OpenAI non ha rilasciato benchmark dettagliati, ma ha affermato che questo modello regge il confronto con alcuni dei migliori modelli proprietari oggi disponibili. Il tutto con un’impostazione open-weight, cioè con pesi accessibili e modificabili, dando così la possibilità a sviluppatori indipendenti e startup di metterci le mani.

gpt-oss-20B: progettato per PC e dispositivi edge

Il modello gpt-oss-20B è stato pensato per situazioni in cui le risorse sono limitate: basta una macchina con 16 GB di memoria, come un buon PC domestico o un sistema edge computing. Le sue capacità di ragionamento sono simili a quelle del modello o3-mini, rendendolo una scelta strategica per chi vuole performance solide senza dover dipendere da server o GPU di fascia alta.

OpenAI lo descrive come ideale per “mercati emergenti” e ambienti con alti requisiti di sicurezza, proprio per la sua capacità di funzionare localmente senza rinunciare alla qualità. Anche in questo caso, niente benchmark numerici precisi, ma un posizionamento chiaro: offrire un’alternativa open, performante e leggera.

Sicurezza, responsabilità e pieno supporto allo sviluppo

OpenAI ha scelto di rilasciare entrambi i modelli con licenza Apache 2.0, una delle più permissive in ambito software, pensata per favorire l’adozione anche in ambiti commerciali o ad alta regolamentazione. La documentazione, come annunciato, comprenderà guide dettagliate per l’uso su piattaforme come Hugging Face, vLLM, Ollama e llama.cpp, ampliando enormemente il potenziale di adozione.

Particolare attenzione è stata dedicata alla sicurezza: oltre alle valutazioni standard, OpenAI ha implementato un protocollo di “worst-case fine-tuning”, che simula scenari d’uso potenzialmente pericolosi, ad esempio nel campo biologico o informatico. L’obiettivo è anticipare e mitigare ogni possibile abuso da parte degli utenti. Inoltre, l’azienda ha fatto sapere che terze parti indipendenti hanno testato i modelli per verificarne l’affidabilità e la non pericolosità in ambito consumer.

Iscriviti alla newsletter

Non inviamo spam! Leggi la nostra Informativa sulla privacy per avere maggiori informazioni.