Come Microsoft vuole affrontare le allucinazioni dell’intelligenza artificiale

Le allucinazioni sono un bel problema per le intelligenze artificiali. Per questo Microsoft ha sviluppato alcune soluzioni per prevenirle il più possibile

Redazione
copilot

Più le intelligenze artificiali progrediscono, più tocca fare i conti con il loro più problematico difetto: quello delle allucinazioni. Ancora oggi molti ricercatori stanno cercando una soluzione a questo problema, e dopo lo studio avveniristico di Google DeepMind, ora è la volta di Microsoft, che ha pubblicato di recente uno studio in cui si propongono alcune soluzioni ingegnose per ridurre questi errori commessi dai modelli linguistici di grandi dimensioni.

Microsoft e le sue soluzioni contro le allucinazioni

Perché le AI hanno le allucinazioni?” questo si è chiesto Ece Kamar, direttore del laboratorio AI Frontiers di Microsoft Research e capo di un team che ha recentemente pubblicato questo studio relativo ai nuovi modi per prevedere le allucinazioni.

In effetti è una bella domanda. Per chi non le conoscesse, le allucinazioni sono teoricamente dei contenuti “non accurati” prodotti dai modelli AI con i dati che gli sono stati forniti. Per lo più si trattano di informazioni aggiuntive non pertinenti, a volte utili nel campo della scrittura creativa, ma pericolose nell’ambito aziendale e pubblico. Anche perché molte organizzazioni hanno bisogno di modelli AI che forniscano informazioni affidabili, e non dati completamente inventati.

Per saperne di più: Intelligenza artificiale: cos’è e come funziona, tutto sulla AI

Non è ancora chiaro il motivo per cui i modelli AI a volte producano queste allucinazioni (un errore nell’architettura base nel modello? Sbagli nella stesura dei prompt? Mancanza di copertura dati?). Fatto sta che oggi esistono, e possono mettere a repentaglio tutto. Per questo occorre affrontarle, e non a caso Microsoft ha sviluppato appositamente delle soluzioni molto innovative. E che riguardano anche i suoi stessi prodotti, come Copilot.

Copilot e la generazione aumentata dal recupero

Per affrontare ad esempio il problema della “inaccuratezza” (ungrounded) su prodotti come Copilot, Microsoft riferisce che i dati di ricerca di Bing vengono ora integrati all’AI tramite la “generazione aumentata dal recupero” (retrieval augmented generation).

Si tratta di un processo che arricchisce il modello con conoscenze aggiuntive senza necessità di riaddestramento. In questo modo, risposte, indice e dati di ranking di Bing aiutano Copilot a fornire risposte più accurate e pertinenti, insieme a citazioni che permettono agli utenti di verificare le informazioni.

On Your Data di Azure

Oltre a Copilot, Microsoft ha voluto trovare una soluzione alle allucinazioni anche con la funzione On Your Data, disponibile sul servizio Azure OpenAI Secure.

Essa aiuta le organizzazioni a integrare con i propri dati interni nelle applicazioni di intelligenza artificiale generativa, mantenendo sempre un ambiente sicuro di livello enterprise.

Microsoft: correzione in tempo reale delle allucinazioni

L’azienda ha anche annunciato uno strumento in tempo reale per rilevare l’accuratezza delle applicazioni che accedono ai dati aziendali, come gli assistenti di chat del servizio clienti e gli strumenti di sintesi dei documenti.

Più una nuova funzione di mitigazione per bloccare e correggere le allucinazioni in tempo reale: quando viene rilevato questo tipo di errore, la funzione riscriverà automaticamente le informazioni basate sui dati.

Iscriviti alla newsletter

Non inviamo spam! Leggi la nostra Informativa sulla privacy per avere maggiori informazioni.