Bleep di Intel è un software basato su intelligenza artificiale che riduce i discorsi di odio online in base alle preferenze dell’utente.
Intel è stata fondata nel 1968 e ha rivoluzionato la tecnologia e l’innovazione nei decenni successivi fino a diventare uno dei principali produttori di chip per computer in tutto il mondo. L’ultima trovata tecnologica si chiama Bleep, soluzione software basato sull’intelligenza artificiale che, con una serie di cursori e interruttori, consente di far determinare all’utente quanti discorsi di incitamento all’odio, in una determinata categoria, vuole sentire mentre chatta con persone in giochi multiplayer.
Come riporta The Verge, secondo Intel l’app “utilizza l’intelligenza artificiale per rilevare e modificare l’audio in base alle preferenze dell’utente“. Il filtro funziona sull’audio in entrata, agendo come un ulteriore livello di moderazione controllato dall’utente, oltre a ciò che una piattaforma o un servizio già offrono.
Uno sforzo certamente nobile, che però si presta anche a qualche sorriso. L’interfaccia di Bleep elenca infatti nei minimi dettagli tutte le diverse categorie di abusi che le persone potrebbero incontrare online, abbinate a cursori per controllare la quantità di maltrattamenti che gli utenti vogliono sentire. Le categorie vanno da “Aggressione” a “LGBTQ + Odio”, “Misoginia”, “Razzismo e xenofobia” e “Nazionalismo bianco”. La pagina di Bleep rileva che il servizio deve ancora entrare in beta pubblica, quindi tutto questo è soggetto a modifiche.
“Sebbene riconosciamo che soluzioni come Bleep non cancellano il problema, riteniamo che sia un passo nella giusta direzione, offrendo ai giocatori uno strumento per controllare la loro esperienza“, ha detto Roger Chandler di Intel durante la sua dimostrazione GDC. Intel afferma che spera di rilasciare Bleep entro la fine dell’anno e aggiunge che la tecnologia si basa sul rilevamento vocale AI con accelerazione hardware, suggerendo che il software potrebbe fare affidamento sull’hardware Intel per l’esecuzione.
Moderare gli spazi online, anche se utilizzando l’intelligenza artificiale, non è un’impresa facile, come hanno dimostrato piattaforme come Facebook e YouTube. Sebbene i sistemi automatizzati possano identificare parole chiaramente offensive, spesso non riescono a considerare il contesto e le sfumature di determinati insulti e minacce.