AI sotto esame: l’amministrazione Trump pensa a verifiche preventive

Il governo americano valuta un nuovo sistema di controllo sui modelli avanzati prima della diffusione pubblica delle tecnologie

Redazione
Revisione modelli ai sotto controllo governativo negli Stati Uniti

L’intelligenza artificiale torna al centro del confronto politico negli Stati Uniti. Secondo indiscrezioni riportate dal New York Times, l’amministrazione Trump starebbe valutando un ordine esecutivo per introdurre un sistema di revisione governativa preventiva sui nuovi modelli AI prima della loro diffusione pubblica. Una prospettiva che segnerebbe una svolta significativa nella strategia americana, soprattutto dopo la linea inizialmente favorevole alla deregulation adottata dalla Casa Bianca nei confronti delle tecnologie emergenti.

A influenzare il dibattito sarebbe stato soprattutto il caso Mythos, il modello sviluppato da Anthropic che l’azienda ha descritto come potenzialmente in grado di individuare migliaia di vulnerabilità critiche nei software. Una definizione che ha immediatamente attirato l’attenzione delle istituzioni federali e degli apparati di sicurezza nazionale.

Il contesto delle nuove regolamentazioni AI

Negli ultimi mesi il tema della sicurezza legata all’intelligenza artificiale è diventato sempre più centrale nelle strategie dei governi. La velocità con cui i modelli generativi stanno evolvendo ha infatti alimentato preoccupazioni legate alla cybersicurezza, alla disinformazione e all’utilizzo improprio delle tecnologie avanzate.

Secondo le indiscrezioni circolate negli Stati Uniti, il piano dell’amministrazione Trump prevederebbe la creazione di un gruppo di lavoro composto da dirigenti delle principali aziende tecnologiche e rappresentanti governativi. L’obiettivo sarebbe quello di definire procedure di controllo condivise per valutare i modelli AI più avanzati prima del rilascio commerciale.

Si tratterebbe di una scelta sorprendente, considerando che uno dei primi atti dell’amministrazione Trump era stato proprio l’annullamento di un precedente ordine esecutivo dell’era Biden dedicato ai rischi dell’intelligenza artificiale. Oggi, però, il quadro appare cambiato. Il rapido sviluppo delle AI generative e le crescenti implicazioni geopolitiche stanno spingendo Washington verso una posizione più prudente.

La valutazione preventiva e il nuovo equilibrio politico

Il possibile sistema di revisione pre-release ricorda da vicino il modello adottato nel Regno Unito attraverso l’AI Security Institute, dove gli organismi pubblici analizzano i sistemi più avanzati prima e dopo il loro impiego.

Negli Stati Uniti, secondo quanto emerso, la supervisione potrebbe coinvolgere agenzie come la NSA, l’Office of the National Cyber Director e il Director of National Intelligence. Il meccanismo non avrebbe però lo scopo diretto di bloccare i prodotti, bensì di garantire alle autorità un accesso anticipato ai modelli ritenuti più sensibili.

La questione arriva inoltre in una fase di transizione interna all’amministrazione americana. David Sacks, figura chiave nella strategia di deregulation AI della Casa Bianca, ha lasciato il proprio incarico a marzo. Da quel momento il dossier sarebbe passato sempre più nelle mani della Chief of Staff Susie Wiles e del Segretario al Tesoro Scott Bessent.

Secondo Dean Ball, ex consulente dell’amministrazione Trump sui temi dell’intelligenza artificiale, il governo starebbe cercando un equilibrio complesso: evitare un eccesso di regolamentazione senza però perdere il controllo su una tecnologia in rapida evoluzione.

Il ruolo di Mythos e lo scontro con Anthropic

Il nome che più di tutti ha accelerato il dibattito è quello di Mythos, il modello sviluppato da Anthropic. La stessa società aveva presentato il sistema come troppo pericoloso per essere distribuito pubblicamente, sostenendo che fosse in grado di identificare vulnerabilità software su larga scala.

Una comunicazione che ha immediatamente acceso l’attenzione delle autorità americane, anche perché il governo federale era già entrato in conflitto con Anthropic per questioni legate alla sicurezza nazionale. Il Pentagono aveva infatti classificato l’azienda come rischio per la supply chain dopo il rifiuto di rimuovere alcune limitazioni collegate all’uso di armi autonome e sistemi di sorveglianza di massa.

Successivamente, un giudice federale aveva definito quella decisione “orwelliana”, contribuendo ad alimentare ulteriormente le polemiche attorno al rapporto fra governo e aziende AI.

Nel frattempo, Mythos sarebbe già stato utilizzato dalla NSA per individuare vulnerabilità nei sistemi Microsoft impiegati all’interno delle infrastrutture governative. Tuttavia, non tutti gli esperti condividono l’allarme generato dal modello: alcune analisi sostengono infatti che sistemi molto meno costosi sarebbero capaci di ottenere risultati comparabili nell’identificazione delle falle informatiche.

Le implicazioni per il settore tecnologico

L’eventuale introduzione di controlli obbligatori prima del rilascio dei modelli AI potrebbe modificare profondamente le dinamiche dell’industria tecnologica americana. Startup e grandi aziende si troverebbero infatti costrette a sottoporre i propri sistemi a verifiche aggiuntive, con possibili rallentamenti nello sviluppo commerciale.

Allo stesso tempo, però, una maggiore supervisione potrebbe aumentare la fiducia del pubblico e ridurre i rischi legati alla diffusione incontrollata di tecnologie particolarmente avanzate.

Per gli sviluppatori e le imprese del settore, la fase attuale impone quindi un monitoraggio costante dell’evoluzione normativa. Il dibattito resta aperto, ma una cosa appare chiara: negli Stati Uniti il rapporto tra politica e intelligenza artificiale sta entrando in una nuova fase, molto più delicata e strategica rispetto al passato.

Fonte: Tom’s Hardware

Iscriviti alla newsletter

Non inviamo spam! Leggi la nostra Informativa sulla privacy per avere maggiori informazioni.