Scontro sull’AI: tribunale dà ragione al Pentagono contro Anthropic

La corte d’appello di Washington ribalta la decisione precedente e riaccende il conflitto legale sulla sicurezza nazionale

Redazione
Anthropic nel limbo giuridico dopo la sentenza USA, illustrazione del caso AI

La battaglia legale tra Anthropic e il Pentagono si arricchisce di un nuovo capitolo, segnato da una decisione che ribalta gli equilibri emersi solo poche settimane fa. Una corte d’appello federale di Washington ha infatti dato ragione al governo statunitense, respingendo la richiesta della società di intelligenza artificiale di sospendere temporaneamente la designazione di rischio per la supply chain imposta dal Dipartimento della Difesa. Un verdetto che apre scenari complessi e lascia la vicenda in una fase di forte incertezza.

Una sentenza che cambia gli equilibri

Secondo la corte d’appello di Washington, Anthropic non ha soddisfatto i requisiti stringenti necessari per ottenere una sospensione della misura imposta dal Pentagono. La decisione rappresenta un netto cambio di direzione rispetto a quanto stabilito da un giudice di San Francisco, che solo un mese fa aveva espresso dubbi sulla condotta del governo.

I giudici hanno sottolineato come concedere una sospensione avrebbe comportato un rischio significativo: costringere l’esercito statunitense a mantenere rapporti con un fornitore ritenuto indesiderato, soprattutto in un contesto di conflitto militare. Un elemento che ha pesato in modo determinante nella valutazione del tribunale, che ha ribadito di non voler interferire con le decisioni del Pentagono in materia di sicurezza nazionale.

Il nodo della “supply chain” e un caso senza precedenti

Al centro della controversia c’è la designazione di Anthropic come rischio per la catena di approvvigionamento, una misura solitamente applicata a società straniere considerate pericolose per la sicurezza nazionale. L’azienda ha evidenziato come si tratti di un caso unico: è la prima società statunitense a ricevere una simile etichetta.

Il governo ha giustificato la decisione facendo riferimento a due diverse normative, anche se finora i tribunali si sono espressi solo su una di esse. Questo contribuisce ad aumentare l’incertezza giuridica e rende ancora più difficile prevedere l’esito finale della disputa.

Il precedente di San Francisco e le accuse di malafede

La sentenza di Washington si pone in netto contrasto con quella emessa a marzo da un giudice di San Francisco. In quell’occasione, il tribunale aveva ipotizzato che il Pentagono potesse aver agito in malafede, spinto dalla frustrazione verso le limitazioni imposte da Anthropic sull’utilizzo della propria tecnologia e da alcune critiche pubbliche.

Lo stesso giudice aveva ordinato la rimozione della designazione, consentendo temporaneamente al governo federale di tornare a utilizzare gli strumenti di intelligenza artificiale dell’azienda. Una decisione che ora appare indebolita dal nuovo pronunciamento della corte d’appello.

Le posizioni contrapposte di azienda e governo

Dal lato di Anthropic, la portavoce Danielle Cohen ha accolto con cautela la decisione, sottolineando come l’azienda resti fiduciosa che le designazioni verranno dichiarate illegali nel prosieguo delle cause. L’obiettivo è ottenere una risoluzione rapida di una vicenda che sta incidendo in modo significativo sul business.

Di tutt’altro tono la reazione del governo. Il procuratore generale ad interim Todd Blanche ha definito la sentenza una “fragorosa vittoria”, ribadendo un principio chiave: il controllo operativo sui sistemi di intelligenza artificiale utilizzati in ambito militare deve restare saldamente nelle mani delle autorità.

Blanche ha inoltre chiarito che le forze armate devono poter accedere pienamente ai modelli di Anthropic qualora questi vengano integrati nei sistemi sensibili, senza vincoli imposti dall’azienda.

Un confronto destinato a durare

La disputa si inserisce in un contesto particolarmente delicato, con il Pentagono impegnato nell’utilizzo dell’intelligenza artificiale anche in operazioni militari attive, come quelle legate al conflitto in Iran. Anthropic sostiene di essere stata penalizzata proprio per aver evidenziato i limiti dei propri modelli, in particolare l’insufficiente affidabilità in operazioni critiche come attacchi con droni senza supervisione umana.

Secondo diversi esperti, il caso rappresenta un banco di prova per comprendere fino a che punto il potere esecutivo possa influenzare le aziende tecnologiche. Nonostante le argomentazioni giuridiche di Anthropic siano considerate solide, i tribunali tendono spesso a non opporsi al governo quando entrano in gioco questioni di sicurezza nazionale.

Nel frattempo, la designazione imposta dal Dipartimento della Difesa continua a produrre effetti concreti: impedisce al Pentagono e ai suoi appaltatori di utilizzare Claude, la famiglia di modelli AI dell’azienda, con ricadute dirette sul suo posizionamento nel settore pubblico.

Le sentenze definitive potrebbero richiedere ancora mesi, mentre restano pochi i dettagli resi noti sull’effettivo utilizzo di questi sistemi o sulle alternative adottate dal governo.

Fonte: Wired

Iscriviti alla newsletter

Non inviamo spam! Leggi la nostra Informativa sulla privacy per avere maggiori informazioni.