Arriva l’intelligenza artificiale su Apple! No, non sugli iPhone, come si spera con iOS 18. Purtroppo l’approdo dell’AI su smartphone è ancora lontano. Per il momento bisognerà accontentarsi di questi 8 modelli AI light. Veri e propri modelli linguistici a base di intelligenza artificiale, fanno parte della serie OpenELM, e paradossalmente possono essere eseguiti anche su uno smartphone odierno, visti i loro requisiti. Ma vediamo bene quali sono, e a cosa possono servire.
OpenELM, i nuovi 8 modelli AI di Apple
Disponibili su Hugging Face con una licenza Apple Sample Code, Apple ha annunciato la nuova serie OpenELM (Open-source Efficient Language Models), composta da ben 8 modelli AI light. Sufficientemente piccoli da poter essere eseguiti direttamente su uno smartphone, sottolinea Ars Technica, sono per lo più modelli di ricerca proof-of-concept, ma potrebbero costituire la base delle future offerte di intelligenza artificiale sui suoi dispositivi.
Disponibili in due versioni (quattro come “preaddestrati” e quattro come ottimizzati per seguire le istruzioni come sviluppare chatbot e altro), di seguito la lista completa degli otto modelli OpenELM:
- OpenELM-270M
- OpenELM-450M
- ApriELM-1_1B
- OpenELM-3B
- OpenELM-270M-Istruzione
- OpenELM-450M-Istruzione
- OpenELM-1_1B-Istruzione
- OpenELM-3B-Istruzione
A cosa servono i modelli AI light
Quasi in contemporanea (e forse per sfida) con i recenti modelli Phi-3 di Microsoft e Llama 3 di Meta, alcuni dei modelli OpenELM di Apple sono molto più piccoli, variando da 270 milioni a 3 miliardi di parametri in otto modelli distinti.
A metro di paragone con le altre intelligenze artificiali rilasciate:
- Phi-3-mini presenta 3,8 miliardi di parametri;
- Llama 3 di Meta include 70 miliardi di parametri (con una versione da 400 miliardi in arrivo);
- GPT-3 di OpenAI del 2020 utilizza 175 miliardi di parametri.
Malgrado le dimensioni, i modelli di Apple hanno un livello utile di comprensione del linguaggio e prestazioni di elaborazione che li rende idonei ad essere eseguiti localmente. Forte anche della sua “strategia di ridimensionamento livellare”, i parametri sono allocati in modo più efficiente, risparmiando non solo risorse computazionali ma anche migliorando le prestazioni del modello mentre viene addestrato su un minor numero di token.
Riporta Ars Technica, Apple afferma che mira a “potenziare e arricchire la comunità di ricerca aperta“. Tuttavia, avverte anche che, poiché i modelli sono stati addestrati su set di dati di provenienza pubblica, pertanto “esiste la possibilità che questi modelli producano risultati imprecisi, dannosi, distorti o discutibili in risposta alle richieste degli utenti“.
Sebbene Apple non abbia ancora integrato questa nuova serie di modelli AI nei suoi dispositivi, si dice che il prossimo aggiornamento iOS 18 (previsto per essere rivelato a giugno al WWDC) includa nuove funzionalità AI che utilizzano l’elaborazione offline per garantire all’utente privacy.