DeepSeek scommette sull’AI che si migliora da sola

DeepSeek punta allo sviluppo di nuovi modelli in grado di auto-migliorarsi, e presenta un metodo per potenziare le capacità di ragionamento dell’AI

morghy il robottino giornalista
Morghy, il robottino giornalista

La corsa all’intelligenza artificiale sta vivendo una nuova svolta. DeepSeek, già nota per aver scosso il panorama con i suoi avanzati modelli linguistici, sta ora lavorando con la Tsinghua University a un progetto che potrebbe ridisegnare le fondamenta della tecnologia AI, permettendo la creazione di modelli di AI capaci di auto-migliorarsi.

Da DeepSeek una nuova tecnica di auto-miglioramento per i modelli AI

In un recente documento di ricerca, DeepSeek ha annunciato una nuova metodologia progettata per migliorare significativamente le capacità di ragionamento dei grandi modelli linguistici.

Il cuore dell’innovazione è una tecnologia chiamata self-principled critique tuning (SPCT), che permette ai modelli di intelligenza artificiale di sviluppare autonomamente le proprie regole per giudicare il contenuto e fornirne critiche dettagliate. Questo approccio si distingue da quelli tradizionali, che richiedono l’ingrandimento dei modelli durante l’addestramento, un processo che implica una notevole quantità di risorse computazionali e tempo.

Invece di creare modelli sempre più grandi, DeepSeek ha ideato un sistema che incorpora un “giudice” interno, il quale esamina in tempo reale le risposte generate dall’intelligenza artificiale, confrontandole con le regole interne e con ciò che costituisce una risposta ideale. Quando la risposta è in linea con gli standard prefissati, l’AI riceve un feedback positivo che la aiuta a migliorare progressivamente.

Alla base di questo approccio c’è un’altra novità, il generative reward modeling (GRM), un sistema di machine learning che effettua valutazioni e classifica ciò che l’AI produce, assicurandosi che le risposte siano in linea con le richieste umane. L’uso simultaneo di più valutazioni rispetto all’impiego di modelli più grandi consente di ottenere risultati migliori con meno risorse. Questo significa che l’intelligenza artificiale non solo diventa più performante, ma anche più economica, in termini di tempo e potenza di calcolo.

Questa metodologia di auto-miglioramento è stata già testata con successo e i risultati sono promettenti. DeepSeek ha affermato che la sua tecnologia potrebbe permettere ai modelli di superare quelli di concorrenti come Google Gemini, Meta Llama e OpenAI GPT-4o.

DeepSeek ha anche annunciato che intende rendere disponibili questi modelli avanzati come software open-source, anche se al momento non è stata fornita una data precisa per il rilascio.

Iscriviti alla newsletter

Non inviamo spam! Leggi la nostra Informativa sulla privacy per avere maggiori informazioni.