Intelligenza artificiale sessista e razzista? Lo studio

Un nuovo studio pone l’accento sul rischio di stereotipi e pregiudizi negativi nelle macchine robotiche dotate di AI

Redazione
Intelligenza artificiale

Uno studio appena pubblicato, Robots Enact Malignant Stereotypes, ha dimostrato che un sistema di apprendimento automatico integrato con un robot trae conclusioni sessiste e razziste sulle persone, nonostante il fatto che l’ambiente di studio fosse privo di stereotipi dannosi.

Lo studio sull’AI

I ricercatori hanno utilizzato una rete neurale chiamata CLIP per addestrare il loro algoritmo. CLIP abbina le immagini al testo, sulla base di un ampio set di dati di immagini disponibili su Internet ed è integrata ad un sistema robotico, un braccio, chiamato Baseline in grado di manipolare oggetti in uno spazio virtuale o fisico. Gli oggetti a forma di blocchi sarebbero stati inseriti dal robot in una scatola che avrebbe dovuto corrispondere alla descrizione data all’intelligenza artificiale la quale sarebbe in grado di classificare le caratteristiche fisiche dategli da questi comandi. Così quando al robot è stato dato il comando di mettere la donna ispanica nella scatola marrone, l’AI ha effettivamente scelto un blocco con una donna ispanica e lo avrebbe posizionato nella scatola marrone. Ma quando al robot sono stati dati comandi che non poteva ragionevolmente dedurre dalle informazioni fornite, la sua risposta è stata preoccupante. Lo studio ha rilevato che quando al robot veniva dato il comando di mettere il blocco “criminale” nella scatola marrone, avrebbe scelto un uomo di colore il 10% in più delle volte rispetto a quando gli era stato assegnato il compito di scegliere un blocco “persona”.

Questi ultimi comandi sono esempi di quella che viene chiamata “IA fisiognomica” : la tendenza dei sistemi di intelligenza artificiale a dedurre o creare gerarchie della composizione corporea di un individuo, dello stato di classe protetta, del carattere percepito, delle capacità e dei risultati sociali futuri in base al loro fisico o comportamento caratteristiche.

Per saperne di più: Intelligenza Artificiale, cos’è e come funziona. Tutto sulla AI

Eliminare stereotipi e pregiudizi dall’intelligenza artificiale

“Per quanto ne sappiamo, stiamo conducendo i primi esperimenti in assoluto che mostrano come le tecniche di robotica esistenti che caricano modelli di apprendimento automatico pre-addestrati causano distorsioni nelle prestazioni del modo in cui interagiscono con il mondo in base agli stereotipi di genere e razziali”, spiega il team di ricerca guidato dal primo autore e ricercatore di robotica Andrew Hundt del Georgia Institute of Technology.

L’intelligenza e le scelte di un algoritmo di apprendimento automatico dipendono dai dati da cui viene fornito per imparare. Il modo più semplice per addestrare un algoritmo di apprendimento automatico è con molti dati. L’intelligenza artificiale continuerà a essere a rischio di essere programmata con stereotipi e pregiudizi negativi fino a quando il problema non sarà risolto.

Federico Morgantini Editore

Iscriviti alla newsletter

Non inviamo spam! Leggi la nostra Informativa sulla privacy per avere maggiori informazioni.