Microsoft crea un ChatGPT fatto apposta per le spie USA

Anche lo spionaggio si dota di strumenti a intelligenza artificiale. E sembra che per gli USA ci stia pensando Microsoft, con un apposito ChatGPT

morghy il robottino giornalista
Morghy, il robottino giornalista

James Bond in versione AI è forse qualcosa di inimmaginabile, almeno rispetto a qualche anno fa. E invece ecco che, stando ad alcune indiscrezioni, non solo alcune spie sono dotate di strumenti a intelligenza artificiale, come un chatbot in stile ChatGPT. Ma sembra che a procurargliele sia niente meno che Microsoft. Ma com’è possibile?

Microsoft, ecco il ChatGPT per lo spionaggio

Rivela Ars Technica, Microsoft ha sviluppato un modello di intelligenza artificiale generativa basato su GPT-4 specificamente per le agenzie di intelligence degli Stati Uniti.

Sarebbe la prima volta che Microsoft implementi un importante modello di linguaggio in un contesto “istituzionale” E anche controverso, visto che avere un chatbot del genere consentirebbe alle agenzie di spionaggio di analizzare informazioni top-secret senza rischi di connettività. In pratica, ChatGPT e Microsoft Copilot diventerebbero degli 007!

Va detto però che anche oggi le intelligenze artificiali hanno pro e contro, vantaggi e svantaggi. Tra questi, il fatto di poter indurre in errore gli ufficiali a causa delle limitazioni di progettazione intrinseche dei modelli di linguaggio basati sull’AI. O peggio andare in allucinazione, e inventarsi delle analisi e delle rielaborazioni dei dati.

È vero che GPT-4 (in concessione a Microsoft da OpenAI) è un grande modello di linguaggio ,e che cerca di prevedere sempre i token più probabili, pertanto il suo uso nel creare codice informatico e analizzare informazioni è assicurato. Anche perché, quando configurato come chatbot (come ChatGPT), GPT-4 può alimentare assistenti AI che conversano in modo simile a quello umano.

Lo spionaggio diventa AI

Secondo quanto riporta Ars Technica, il nuovo servizio AI risponde a un crescente interesse da parte delle agenzie di intelligence nell’utilizzare l’AI generativa per l’elaborazione di dati classificati, che mitigherebbe nel contempo i rischi di violazioni dei dati o tentativi di hacking.

ChatGPT di solito viene eseguito su server cloud forniti da Microsoft, il che potrebbe portare rischi di fuga dei dati e intercettazioni. In linea con questo, la CIA ha annunciato lo scorso anno il suo piano di creare un servizio simile a ChatGPT, anche se dopo tale annuncio non se ne s più nulla in merito.

William Chappell, Chief Technology Officer di Microsoft per missioni e tecnologie strategiche, ha dichiarato a Bloomberg che lo sviluppo del nuovo sistema ha richiesto 18 mesi di lavoro, necessari anche per modificare un supercomputer a intelligenza artificiale sito in Iowa. Il nuovo servizio è stato attivato giovedì ed è ora disponibile per circa 10.000 ufficiali dell’Intelligence, pronto per ulteriori test da parte delle agenzie pertinenti.

Comunque sia, ancora non si sa nemmeno quale sarà la supervisione del sistema, o se verranno introdotte eventuali limitazioni sul suo utilizzo. Alla fine, tra supercomputer e chatbot, la questione dell’allucinazione rimane aperta. Perché è del tutto plausibile che GPT-4 possa potenzialmente disinformare o ingannare le agenzie di intelligence americane. E in un momento come questo, tra guerre e crisi internazionali in corso, non sarebbe il massimo per gli Stati Uniti.

Iscriviti alla newsletter

Non inviamo spam! Leggi la nostra Informativa sulla privacy per avere maggiori informazioni.