Microsoft da sempre ha tratto grande vantaggio dallo sviluppo dell’intelligenza artificiale generativa, soprattutto grazie alla sua collaborazione con OpenAI e all’adozione della tecnologia di questa startup in Bing, Azure e altri prodotti. Ora però vuole puntare in alto.
Oggi, l’azienda ha comunicato che renderà accessibile il modello AI open source Llama 2 di Meta Platforms, concorrente di OpenAI, in Azure AI Studio come “modello come servizio”. E così anche GPT-4 Turbo, con Vision.
Microsoft rende Azure AI Studio sempre più AI con Llama 2
Mettere a disposizione questa ampia gamma di diversi modelli Llama open source è una scelta strategica da parte di Microsoft. Con essa amplia le opzioni di intelligenza artificiale per i clienti dei servizi e dello spazio cloud di Azure. E sempre offrendo loro un’alternativa molto più conveniente ai modelli GPT-3.5 e 4 del partner OpenAI.
Come riportato nel comunicato dell’azienda, ora i clienti potranno usare modelli di intelligenza artificiale come Llama 2 via web, a seconda delle loro esigenze, con una configurazione semplice su Azure AI Studio.
Simile all’ormai vecchio acronimo di SaaS (software-as-a-service), MaaS offre ai clienti la possibilità di utilizzare modelli di intelligenza artificiale come Llama 2 on-demand sul web quando necessario con una configurazione minima.
Non dovranno affrontare tutta la fatica di installarlo sul proprio spazio server cloud, cloud privato, cloud ibrido o altre posizioni. Anche con l’aiuto e la formazione del personale IT da parte degli esperti Microsoft, questo può essere un compito non banale per le aziende.
In arrivo anche GPT-4 Turbo
OpenAI non sarà messo in ombra dagli annunci di oggi. Al contrario: Montgomery ha anche annunciato che l’ultimo modello di intelligenza artificiale pubblico di OpenAI, GPT-4 Turbo con Vision.
Grazie a esso, Azure AI Studio si dota di un’intelligenza artificiale dotata di una notevole capacità di analizzare e descrivere immagini e contenuti visivi, ora accessibile ai tutti i clienti.
Questa notizia segue anche il lancio da parte di Microsoft all’inizio di questa settimana di Phi-2, il suo modello Small Language Model (SML), ma questo è solo per la ricerca e non per usi commerciali. Invece, Llama-2 e GPT-4 Turbo con Vision lo sono.
Come ha illustrato John Montgomery, vicepresidente aziendale Microsoft per la gestione dei programmi relativi alla piattaforma AI, in un post sul blog.
“In Azure AI è già da molto tempo possibile distribuire modelli sulla propria infrastruttura: è sufficiente accedere al catalogo dei modelli, selezionare il modello da distribuire e una macchina virtuale su cui distribuirlo e il gioco è fatto. Ma non tutti i clienti vogliono pensare all’infrastruttura operativa, motivo per cui in Ignite abbiamo introdotto Models as a Service, che gestisce i modelli come endpoint API che puoi semplicemente chiamare, proprio come potresti chiamare il servizio Azure OpenAI.