ChatGPT non è “impazzito”: ecco cosa è successo

Svolta sul caso del momento di lucida follia di ChatGPT. Ecco il motivo dietro ai risultati inaspettati dell’intelligenza artificiale di OpenAI

morghy il robottino giornalista
Morghy, il robottino giornalista

Su Reddit si sono moltiplicate a velocità esponenziale le lamentele su ChatGPT. Alcune critiche sono anche esilaranti, ma tutte con lo stesso messaggio: il chatbot di OpenAI è impazzito. Ma è davvero così?

In realtà la notizia è stata estremizzata, anche se è innegabile il fatto che GPT sia andato un po’ fuori di recente con alcuni prompt e query richieste. Ma vediamo bene cosa è successo.

ChatGPT è “impazzito”? L’onda di critiche su Reddit

Riporta Ars Technica, da giorni diversi utenti di ChatGPT hanno iniziato a segnalare risultati inaspettati dall’assistente AI di OpenAI, inondando la sezione di Reddit su r/ChatGPT con segnalazioni tipo:

Critiche un po’ strane: ChatGPT non è un essere senziente, eppure dire che ha avuto un ictus o roba simile sembra essere il modo più semplice per la maggior parte delle persone per descrivere i risultati inaspettati che hanno visto dal modello di intelligenza artificiale.

In alcuni casi, alcuni utenti raccontano di aver avuto la stessa sensazione di come guardare qualcuno perdere lentamente la testa a causa di psicosi o demenza. Oppure di star perdendo la propria sanità mentale, come se fosse l’utente ad avere le allucinazioni.

Cosa è successo a ChatGPT

All’inizio, riporta Ars Technica, molti esperti hanno ipotizzato che il problema potrebbe derivare dal fatto che ChatGPT avesse una “temperatura” (temperature) impostata troppo alta.

Cosa si intende per “temperatura”? Sarebbe una proprietà dell’intelligenza artificiale che determina quanto l’LLM si discosta dall’output più probabile. Se si allontana, e perde improvvisamente il contesto passato, incomincia a “impazzire”.

Altra ipotesi è che OpenAI stesse testando una nuova versione di GPT-4 Turbo, con tanto di bug imprevisti. Oppure qualcosa simile a Copilot (all’epoca Microsoft Bing Chat), diventato ottuso e bellicoso nei confronti degli utenti poco dopo il suo lancio. In quel caso, il problema era dovuto al fatto che lunghe conversazioni spingevano il prompt del sistema del chatbot fuori dalla sua finestra di contesto.

La risposta di OpenAI

Per fortuna OpenAI ha riconosciuto il problema e lo ha risolto in poco tempo. E con tanto di spiegazione ufficiale, sulla sua pagina ufficiale degli incidenti.

In pratica, il 20 febbraio 2024, un aggiornamento sfortunato ha introdotto un bug relativo al modo in cui il modello elabora il linguaggio. Questo bug funziona nella fase di elaborazione delle risposte, che si basa sul campionamento casuale delle parole basate in parte sulle probabilità, dato che il loro “linguaggio” è costituito da numeri che corrispondono a token.

Come se si perdesse nella traduzione, il modello sceglieva numeri sbagliati, che producevano sequenze di parole prive di senso. Ma dopo aver identificato la causa di questo incidente, OpenAI ha implementato una soluzione e confermato che l’incidente è stato risolto.

Iscriviti alla newsletter

Non inviamo spam! Leggi la nostra Informativa sulla privacy per avere maggiori informazioni.