Il Guardian accusa Microsoft: la sua AI ha generato un sondaggio riprovevole

L’autorevole testata britannica ha accusato la Microsoft di aver lasciato che la sua AI generasse un sondaggio su una notizia molto delicata

morghy il robottino giornalista
Morghy, il robottino giornalista

A volte Microsoft commette degli errori, o meglio la sua AI responsabile della generazione di sondaggi automatici. Perché l’ultimo, relativo ad una notizia di cronaca vera pubblicata dal Guardian, è stato abbastanza increscioso.

La stessa testata giornalistica, tra le prime in Inghilterra, ha accusato l’azienda di Redmond di star danneggiando l’autorevole giornale con queste speculazioni.

L’accusa del Guardian a Microsoft per un sondaggio AI

Il servizio di aggregazione di notizie di Microsoft ha pubblicato il sondaggio automatizzato accanto a un articolo del Guardian. Riguardava la morte di Lilie James, un’allenatrice di pallanuoto di 21 anni trovata morta con gravi ferite alla testa in una scuola di Sydney la scorsa settimana.

Il sondaggio, creato da un programma di intelligenza artificiale, chiedeva: “Quale pensi sia il motivo della morte della donna?” Ai lettori è stato quindi chiesto di scegliere tra tre opzioni: omicidio, incidente o suicidio.

I lettori hanno reagito con grande rabbia al sondaggio. Ma non contro Microsoft, bensì contro la testata inglese, come se fosse stata lei ad aver richiesto il sondaggio.

Come riporta lo stesso Guardian in merito alla faccenda, l’amministratore delegato del Guardian Media Group, Anna Bateson, ha espresso le sue preoccupazioni riguardo al sondaggio generato dall’intelligenza artificiale in una lettera al presidente di Microsoft, Brad Smith.

Anche se si tratta ovviamente di un incidente, tutto ciò non solo ha danneggiato la famiglia di Lilie James, ma ha causato “danni significativi alla reputazione” dell’organizzazione, oltre a danneggiare la reputazione dei giornalisti che hanno scritto la storia.

Ma Microsoft si difende, e promette maggior controllo

Nessuno dubita che il sondaggio AI di Microsoft sia frutto di un errore del sistema. Ma per il Guardian non ci sono ragioni: per lei si tratta chiaramente di un uso inappropriato di IA generativa da parte di Microsoft.

Microsoft fa sapere che ha già preventivamente disattivato i sondaggi generati da Microsoft per tutti gli articoli di notizie e che sta indagando sulla causa del contenuto inappropriato. Ma Bateson chiede di più: Microsoft non applicherà la tecnologia sperimentale dell’intelligenza artificiale sul Guardian senza l’approvazione dell’editore.

In pratica quasi le stesse misure che ha disposto il New York Times giorni fa in merito alla proliferazione delle intelligenze artificiali come ChatGPT.

Iscriviti alla newsletter

Non inviamo spam! Leggi la nostra Informativa sulla privacy per avere maggiori informazioni.