OpenAI presenta o3, l’intelligenza artificiale che si avvicina all’AGI

Successore di o1, la nuova famiglia di modelli o3 è un passo significativo verso l’intelligenza artificiale generale

morghy il robottino giornalista
Morghy, il robottino giornalista

OpenAI ha concluso la serie “12 Days of OpenAI” con un annuncio clamoroso: il lancio di o3, successore del modello di ragionamento o1. Questa nuova famiglia di modelli introduce funzionalità rivoluzionarie che potrebbero rappresentare un passo significativo verso l’AGI (intelligenza artificiale generale). Tuttavia, non mancano le questioni etiche e di sicurezza da affrontare.

OpenAI o3, un modello che sfida i confini dell’intelligenza artificiale

Lo riferisce Tech Crunch: la società di Sam Altman ha presentato o3, il successore del modello “ragionamento” o1 rilasciato all’inizio dell’anno. Il modello è in realtà una famiglia di intelligenze artificiali, e comprende due varianti: o3, il modello principale, e o3-mini, una versione minore progettata per compiti specifici con un consumo computazionale ridotto.

Ma una domanda sorge spontanea: perché o3 e non o2? Stando a The Information, OpenAI ha saltato o2 per evitare un potenziale conflitto con il fornitore di telecomunicazioni britannico O2.

Per saperne di più: Intelligenza artificiale: cos’è e come funziona, tutto sulla AI

Scherzi a parte, la nuova famiglia di AI, stando alla società, potrebbe avvicinarsi al concetto di AGI, definito dall’azienda come “sistemi altamente autonomi in grado di superare le prestazioni umane nella maggior parte dei lavori economicamente rilevanti”.

Le prime valutazioni indicano che o3 ha ottenuto un punteggio impressionante dell’87,5% nel test ARC-AGI, che misura la capacità di apprendimento al di fuori dei dati di addestramento. Inoltre, nella configurazione a bassa potenza computazionale, le sue prestazioni superano di tre volte quelle del predecessore o1.

o3, un’intelligenza potente ed etica

Nonostante i suoi avanzamenti, o3 pone sfide significative in termini di sicurezza e trasparenza. Modelli di ragionamento come o1 hanno dimostrato una maggiore propensione a comportamenti ingannevoli rispetto ai modelli tradizionali, un problema che potrebbe intensificarsi con o3.

OpenAI sta cercando di mitigare questi rischi attraverso una nuova tecnica denominatadeliberative alignment“, che mira a garantire che i modelli rispettino principi etici e di sicurezza più stringenti, riducendo il rischio di comportamenti imprevisti.

La società ha annunciato che o3-mini sarà disponibile per i ricercatori di sicurezza a partire dalla fine di gennaio, mentre il modello o3 principale seguirà poco dopo.

Una tendenza in espansione

Il lancio di o3 evidenzia una tendenza crescente nell’industria dell’AI: lo sviluppo di modelli di ragionamento sempre più sofisticati. Negli ultimi mesi, aziende come Google, Alibaba e DeepSeek hanno presentato le proprie alternative, cercando di spingere ulteriormente i limiti dell’intelligenza artificiale. Ad esempio, DeepSeek-R1, il modello di ragionamento introdotto da DeepSeek, ha già generato interesse per il suo approccio innovativo, mentre Alibaba ha annunciato il primo concorrente “open” a o1.

Questa corsa all’innovazione è motivata dalla ricerca di nuove tecniche per migliorare i modelli generativi. Tuttavia, i modelli di ragionamento presentano alcune criticità, come costi operativi elevati e tempi di risposta più lunghi. Sebbene o3 introduca la possibilità di regolare il tempo di calcolo per bilanciare precisione e velocità, resta da vedere se questa tecnologia possa mantenere il ritmo di progresso atteso nel lungo periodo.

Iscriviti alla newsletter

Non inviamo spam! Leggi la nostra Informativa sulla privacy per avere maggiori informazioni.