Con l’intelligenza artificiale si possono fare un sacco di attività, e anche progetti molto utili per la collettività. Tra questi, ovviamente, non c’è quella di infestare un’enciclopedia “universale” come Wikipedia. Da tempo la piattaforma ha al suo interno contenuti creati o modificati con l’ausilio di AI, il che non sarebbe un male. Peccato che alcuni utenti stiano utilizzando strumenti come ChatGPT per produrre voci fake a volte anche estremamente dettagliate. O addirittura per inserire immagini generate artificialmente all’interno di pagine legittime. Proprio per ripulire il sito da tutti questi contenuti falsi e fuorvianti, Wikipedia ha voluto formare una task force dedicata.
L’infiltrazione dei contenuti fake su Wikipedia
Per affrontare l’assalto da parte di questi utenti, racconta il sito di informazione 404 Media, Wikipedia ha istituito il progetto WikiProject AI Cleanup. Il gruppo, composto da volontari, ha il compito di individuare e rimuovere i contenuti sospetti creati o modificati dall’AI.
Un compito che è in realtà un’impresa: ogni giorno vengono create migliaia di nuove voci, e non è semplice filtrare rapidamente i contenuti fasulli prima che causino danni, come la diffusione di informazioni false in articoli accademici o giornalistici.
Un altro ostacolo è rappresentato dai contenuti generati dall’AI che non creano nuove pagine, ma vengono inseriti in voci preesistenti. In questi casi, diventa più difficile distinguere tra informazioni legittime e disinformazione, soprattutto se i falsi dettagli sono ben integrati all’interno della struttura dell’articolo.
Per saperne di più: Intelligenza artificiale: cos’è e come funziona, tutto sulla AI
Come avverrà la “pulizia dell’AI”
L’individuazione dei contenuti falsi generati dall’AI si basa su due aspetti: lo stile dei contenuti e la veridicità del fatto.
Nel primo caso, i volontari si ritrovano con contenuti fake che sono facili da individuare, essendo scritti in maniera ridondante e con un linguaggio poco naturale. A conti fatti, è sufficiente una ricerca per parole chiave per individuare gran parte dei testi scritti con AI. Ma questi sono i casi più semplici da risolvere.
Nel secondo caso, i volontari hanno a che fare con pagine di eventi o fatti totalmente inventati, ma descritti in maniera minuziosa. Un esempio riportato dal sito è la pagina fittizia dedicata alla “fortezza di Amberlihisar”, una costruzione inesistente, descritta però nei minimi dettagli. L’articolo, lungo oltre 2.000 parole, narrava addirittura di eventi storici inesistenti, assedi immaginari e restauri mai avvenuti. Praticamente una specie di “Storia dell’assedio di Lisbona” in formato pagina.
A questi due si aggiunge anche la problematica delle immagini fake. Uno dei casi più emblematici riguarda un quadro a olio inserito nella pagina del (realmente esistito) seminario islamico Darul Uloom Deoband in India. L’immagine, all’apparenza pertinente, è risultata falsa: il soggetto raffigurato aveva un piede con sette dita, chiaro segno che l’immagine era stata prodotta da un’intelligenza artificiale.
Va detto che in questo frangente non tutte le immagini create dall’AI vengono eliminate: alcune, anche se irreali, vengono mantenute quando hanno senso nel contesto dell’articolo. Un esempio è una foto modificata in cui si vede Donald Trump che abbraccia degli animali, inserita in una voce riguardante la bufala sui migranti accusati di aver rapito e mangiato gatti domestici nei pressi di Springfield (Ohio).
Inoltre il WikiProject AI Cleanup non si limita solo al lavoro manuale. Il team sta cercando di usare la stessa tecnologia dei troll, avvalendosi di AI in grado di identificare i contenuti generati da modelli come ChatGPT. Tuttavia, gli strumenti disponibili non sono ancora infallibili.