Vitruvian-1, l’AI italiana che sfida i giganti della tecnologia

Nonostante le dimensioni contenute, Vitruvian-1 è in grado di competere con modelli come ChatGPT e DeepSeek

Redazione

Arriva la risposta italiana ai vari ChatGPT e Gemini oggi in circolazione: ecco Vitruvian-1, un modello AI che promette di rivaleggiare con le soluzioni di grandi aziende come OpenAI, Google e tanti altri. Sviluppato dalla startup Asc27, Vitruvian-1 è pensato per rispondere alle esigenze delle aziende e delle istituzioni del Vecchio Continente, offrendo un’alternativa ai modelli sviluppati al di fuori dell’Unione Europea.

Vitruvian-1, il modello AI nato in Italia che compete con ChatGPT e altri

Liberamente ispirato all’Uomo Vitruviano di Leonardo Da Vinci, Vitruvian-1 nasce con l’intento di colmare un vuoto nel panorama dell’intelligenza artificiale, creando una soluzione che possa competere ad armi pari con i grandi modelli globali. “In un mondo dominato da modelli giganteschi come ChatGPT, Claude o LLaMA, Vitruvian-1 dimostra che l’efficienza e la capacità di ragionamento contano più delle dimensioni“, si legge sul sito ufficiale.

Vitruvian-1 rappresenta una sfida diretta alle tecnologie AI sviluppate fuori dall’Europa, specialmente per quanto riguarda la dipendenza dalle infrastrutture cloud esterne. I modelli tradizionali, provenienti principalmente da Stati Uniti e Cina, spesso si basano su piattaforme cloud non europee, il che solleva preoccupazioni sulla gestione dei dati e sulla conformità con le normative locali, come il GDPR o l’AI Act.

Invece, Asc27 ha sviluppato con Vitruvian-1 un’AI “che rispetta i valori e le normative europee, promuovendo un ecosistema tecnologico capace di attrarre talenti e investimenti internazionali“.

Per saperne di più: Intelligenza artificiale: cos’è e come funziona, tutto sulla AI

Le caratteristiche del modello AI Made in Italy

Vitruvian-1 è un modello linguistico da 14 miliardi di parametri progettato per soddisfare le esigenze di aziende e istituzioni.

Grazie a un’architettura avanzata e a una metodologia di addestramento ottimizzata, il modello è stato addestrato su un corpus multilingue di 120 miliardi di token (ma “con una connessione profonda alla lingua italiana per supportare aziende e istituzioni nazionali“). Questa combinazione lo rende particolarmente capace di “affrontare le sfide più complesse in ambiti come matematica, fisica, medicina, diritto e molto altro“.

Il modello è stato addestrato su fonti selezionate con cura grazie all’utilizzo di un classificatore basato su Llama-3.2-1B, che ha permesso di escludere contenuti di bassa qualità, garantendo così una maggiore precisione nelle risposte.

Nella sua progettazione, sono state adottate tecniche avanzate come la distillazione delle catene di ragionamento (CoT) e l’apprendimento per rinforzo tramite Proximal Policy Optimization (PPO), che hanno migliorato ulteriormente le performance del modello, affinando la sua capacità di risolvere problemi complessi con precisione ed efficienza.

Un ulteriore punto di forza è l’integrazione di meccanismi di auditing e monitoraggio dei bias, che assicurano la trasparenza algoritmica, fondamentale per evitare risposte influenzate da pregiudizi non rilevati.

Per saperne di più sugli aspetti tecnici, vi rimandiamo al paper dell’AI.

Iscriviti alla newsletter

Non inviamo spam! Leggi la nostra Informativa sulla privacy per avere maggiori informazioni.