La preoccupazione che criminali o terroristi possano utilizzare l’intelligenza artificiale per causare distruzioni di massa dominerà la discussione da qui ai prossimi mesi, soprattutto in sede istituzionale.
Già ad avere forti preoccupazioni, a livello istituzionale, sono i membri dell’Esecutivo britannico, al punto di indire un vertice sulla sicurezza dell’intelligenza artificiale. Si terrà a Bletchley Park a novembre, e come obiettivo è quello di mettere in guardia l’amministrazione sui pericoli derivanti da attori disonesti che utilizzano la tecnologia per causare morte su larga scala.
Frontier AI e le intelligenze “criminali”
I funzionari britannici da tempo sono diventati sempre più preoccupati per tali possibilità e per la necessità di una regolamentazione per mitigarle, dopo le recenti discussioni con i dirigenti senior del settore tecnologico.
Il Guardian riporta che una persona informata delle conversazioni del vertice del governo britannico asserisce che il Governo metterà in guardia sui rischi dell'”intelligenza artificiale di frontiera“. Ovvero i Frontier AI, un termine usato per riferirsi ai modelli di IA più avanzati, pericolosi abbastanza da rappresentare un rischio per la vita umana.
Per saperne di più: Intelligenza artificiale: cos’è e come funziona, tutto sulla AI
Come ad esempio impiegare la AI a suggerire 40.000 diverse molecole potenzialmente letali, alcune delle quali erano simili al VX, l’agente nervino più potente mai sviluppato, come ricorda The Verge. E non per fini di studio sull’olfatto. Oppure nel creare immagini deepfake o portare a risultati discriminatori se utilizzata per aiutare a prendere decisioni di politica pubblica.
Da qui la necessità di creare una taskforce ad hoc, il Frontier AI, il primo al mondo nella ricerca di AI criminali.
Il paese si blinda sull’intelligenza artificiale
Lunedì mattina il governo ha confermato che il vertice si concentrerà su rischi quali l’uso improprio dell’intelligenza artificiale. Lo stesso premier Sunak mette in guardia da diversi mesi sui rischi posti dall’intelligenza artificiale, esortando la comunità internazionale ad adottare dispositivi di controllo (“guard rail”) per impedirne un uso improprio.
Downing Street sta spendendo 100 milioni di sterline per una nuova task force sull’intelligenza artificiale per aiutare a testare gli algoritmi man mano che vengono sviluppati.
I funzionari britannici intendono utilizzare il vertice per sollecitare le aziende di tutto il mondo a inviare i propri strumenti di intelligenza artificiale al Regno Unito per la valutazione prima di diffonderli su larga scala.
Anche perché l’intelligenza artificiale ha un enorme potenziale per cambiare ogni aspetto della nostra vita, e l’istituzione della task force Frontier AI serve a garantire che la tecnologia sia sviluppata in modo sicuro e responsabile, anche davanti al rischio di ritrovarsi con un mondo unito nelle tecnologie, ma diviso nell’AI.