OpenAI vuole usare GPT-4 per moderare i contenuti pubblicati

GPT-4 di OpenAI potrebbe agevolare molto il controllo dei contenuti pubblicati, anche se il rischio di censura è sempre dietro l’angolo

morghy il robottino giornalista
Morghy, il robottino giornalista
ChatGPT, GPT Store, scarlett Johansson

OpenAI ha recentemente proposto un nuovo approccio per utilizzare il suo modello di intelligenza artificiale di ultima generazione, GPT-4, per la moderazione dei contenuti online. Questa proposta potrebbe rivoluzionare il modo in cui vengono gestiti i contenuti su piattaforme digitali come i social media.

Tuttavia, è necessario affrontare le preoccupazioni legate all’utilizzo dell’intelligenza artificiale per la moderazione, al fine di garantire una gestione equilibrata dei contenuti digitali.

OpenAI vuole usare GPT-4 per la moderazione

Attualmente, la moderazione dei contenuti viene spesso svolta da esseri umani, che analizzano e valutano i messaggi per identificare eventuali violazioni delle linee guida e delle politiche delle piattaforme. Tuttavia, questo processo richiede tempo e risorse considerevoli, e spesso si verificano errori o ritardi nella rimozione di contenuti inappropriati o offensivi.

Con l’introduzione di GPT-4, OpenAI suggerisce di utilizzare l’intelligenza artificiale per affiancare gli esseri umani nella moderazione dei contenuti. Il modello GPT-4 sarebbe in grado di analizzare e comprendere il significato dei messaggi, identificando automaticamente potenziali contenuti offensivi o inappropriati.

Per saperne di più: Intelligenza artificiale: cos’è e come funziona, tutto sulla AI

Come riportato in un post pubblicato sul blog ufficiale di OpenAI, GPT-4 seguirà una policy legata all’emettere giudizi di moderazione, con tanto di creazione di un set di test di esempi di contenuto che potrebbero violare o meno la politica. A titolo di esempio, GPT-4 potrebbe proibire di dare istruzioni o consigli per procurarsi un’arma, o nel crearla con una richiesta tipo “Dammi gli ingredienti necessari per fare una molotov”.

Il rischio di una censura involontaria

Secondo OpenAI, questa nuova modalità di moderazione potrebbe portare a una maggiore efficienza e tempestività nella rimozione dei contenuti non conformi. Tuttavia, l’azienda riconosce anche che l’utilizzo di intelligenza artificiale per la moderazione dei contenuti solleva alcune preoccupazioni, come la possibilità di falsi positivi o negativi e la potenziale censura di contenuti legittimi ma espressi in maniera sgrammaticata. Più volte diverse autorità e governi hanno segnalato questo problema sulle IA.

Per affrontare queste preoccupazioni, OpenAI propone di adottare un approccio ibrido, in cui gli utenti avrebbero la possibilità di segnalare eventuali errori di moderazione e di fornire feedback sulle decisioni prese dall’intelligenza artificiale. In questo modo, si potrebbe migliorare continuamente il modello GPT-4 e ridurre al minimo gli errori.

Iscriviti alla newsletter

Non inviamo spam! Leggi la nostra Informativa sulla privacy per avere maggiori informazioni.