“Mitigare il rischio di estinzione dell’IA dovrebbe essere una priorità globale insieme ad altri rischi su scala sociale come le pandemie e la guerra nucleare“.
È questo l’appello firmato da un gruppo di massimi esperti internazionali sull’Intelligenza Artificiale pubblicato sul sito web del Center for AI Safety, organizzazione senza scopo di lucro con la missione di ridurre il rischio su scala sociale derivante dall’IA attraverso la ricerca, la costruzione sul campo e la difesa.
Tra i firmatari dell’appello ci sono: alcuni CEO dei migliori laboratori di intelligenza artificiale come Sam Altman, Demis Hassabis e anche l’italiano Dario Amodei; gli autori del libro sull’Intelligenza Artificiale Stuart Russell e Peter Norvig; due autori del libro di testo sul Deep Learning Ian Goodfellow e Yoshua Bengio; un autore del libro di testo sull’apprendimento per rinforzo Andrew Barto; tre vincitori del Premio Turing Geoffrey Hinton, Yoshua Bengio e Martin Hellman; i dirigenti di Microsoft, OpenAI, Google, Google DeepMind e Anthropic (i leader di Meta non hanno firmato); gli scienziati dietro famosi sistemi di intelligenza artificiale come AlphaGo e ogni versione di GPT David Silver, Ilya Sutskever; i primi due scienziati informatici più citati Hinton e Bengio e lo studioso più citato in sicurezza informatica e privacy Dawn Song; professori di intelligenza artificiale delle università cinesi, professori che studiano pandemie, cambiamenti climatici e tecnologia nucleare; e ancora altri firmatari quali Marian Rogers Croak, inventore del protocollo VoIP-Voice over Internet, Kersti Kaljulaid ex presidente della Repubblica di Estonia e altri.
Per saperne di più: Intelligenza Artificiale, cos’è e come funziona. Tutto sulla AI
Rischio estinzione: AI come la guerra nucleare
Gli esperti considerano il rischio di estinzione causato dai futuri sistemi di intelligenza artificiale uno dei problemi di maggiore rilevanza a livello mondiale. L’aumento delle preoccupazioni riguardanti i potenziali impatti dell’IA richiama alla mente le prime discussioni sull’energia atomica. Come una volta disse J. Robert Oppenheimer, “Sapevamo che il mondo non sarebbe stato lo stesso”. In seguito, cercò un coordinamento internazionale per prevenire una guerra nucleare. “Dobbiamo organizzare gli stessi dibattiti che gli scienziati nucleari stavano avendo prima della creazione della bomba atomica”, ha dichiarato Dan Hendrycks, direttore del Center for AI Safety.
È fondamentale affrontare gli impatti negativi dell’IA, che si stanno già facendo sentire in tutto il mondo. Allo stesso tempo, è necessario avere una visione di lungo termine per prevedere i rischi associati ai sistemi di intelligenza artificiale più avanzati. Hendrycks ha affermato: “Le pandemie non erano una preoccupazione delle persone prima del Covid-19. Non è troppo presto per mettere in atto misure di protezione e istituire istituzioni che ci proteggano da rischi imprevisti legati all’intelligenza artificiale”.
Affrontare seriamente il rischio che le future IA possano minacciare l’esistenza umana richiederà azioni su scala globale. Hendrycks sottolinea che il mondo ha cooperato con successo per mitigare i rischi legati alla guerra nucleare, e lo stesso livello di collaborazione sarà necessario per mitigare il rischio di estinzione causato dall’IA.