ChatGPT: potenzialità e rischi

Bern Elliot, VP Analyst di Gartner ha cercato di spiegare i pro e i possibili contro dell’utilizzo del ChatGPT di OpenAI

Redazione
ChatGPT

Il 2022 si è chiuso con una grande novità per il mondo dell’intelligenza artificiale. Stiamo parlando di ChatGPT, il chatbot di Open AI che si esprime quasi come se fosse un essere umano. Ma quali sono le sue potenzialità e i relativi rischi? A spiegarlo è Bern Elliot, VP Analyst di Gartner.

ChatGPT tra potenzialità e rischi

In una lunga intervista rilasciata da Bern Elliot, VP Analyst di Gartner, si è cercato di capirne di più su questa nuova macchina di intelligenza artificiale. Nello specifico si è cercato di capire quali sono i pro e i contro nella sua applicazione.

Partendo dalle potenzialità in ambito aziendale che ChatGPT può portare, Elliot ha risposto che “ChatGPT è uno specifico caso d’uso di chatbot in cui il chatbot viene utilizzato per interagire (chattare) o “conversare” con una fonte di informazioni GPT. In questo caso, la fonte di informazioni GPT viene addestrata per un dominio specifico da OpenAI. I dati di addestramento utilizzati nel modello determinano il modo in cui verrà data risposta alle domande. Esistono numerosi casi d’uso per modelli di base come GPT. Ad esempio, i modelli di base sono stati utilizzati per creare immagini dal testo; generare, rivedere e controllare il codice dal linguaggio naturale, inclusi i contratti intelligenti; e persino nel settore sanitario per creare nuovi farmaci e decifrare le sequenze del genoma per la classificazione delle malattie”.

Successivamente l’intervista è passata a cercare di capire quali sono i contro e, in particolare, i rischi. Elliot ha risposto inquadrando cinque principali rischi e preoccupazioni etiche che sono:

Complessità: i modelli di grandi dimensioni coinvolgono miliardi, o addirittura trilioni, di parametri. Questi modelli sono poco pratici da addestrare per la maggior parte delle organizzazioni, a causa delle risorse di elaborazione necessarie, che possono renderli costosi e dannosi per l’ambiente;

– Concentrazione del potere: questi modelli sono stati costruiti principalmente dalle più grandi aziende tecnologiche, con enormi investimenti in ricerca e sviluppo e notevoli talenti nel campo dell’intelligenza artificiale. Ciò ha portato a una concentrazione di potere in poche entità grandi e ricche, che potrebbero creare uno squilibrio significativo in futuro;

Potenziale uso improprio: i modelli Foundation riducono il costo della creazione di contenuti, il che significa che diventa più facile creare deepfake che assomigliano molto all’originale. Ciò include qualsiasi cosa, dalla rappresentazione vocale e video all’arte falsa, nonché attacchi mirati. Le serie preoccupazioni etiche coinvolte potrebbero danneggiare la reputazione o causare conflitti politici;

Natura della scatola nera: questi modelli richiedono ancora un’attenta formazione e possono fornire risultati inaccettabili a causa della loro natura della scatola nera. Spesso non è chiaro a quali modelli di factbase attribuiscano le risposte, il che può propagare pregiudizi a valle nei set di dati. L’omogeneizzazione di tali modelli può portare a un singolo punto di errore;

Proprietà intellettuale: il modello è formato su un corpus di opere create e non è ancora chiaro quale possa essere il precedente legale per il riutilizzo di questo contenuto, se derivato dalla proprietà intellettuale di altri.

Federico Morgantini Editore