Loading...
Anthropic nella blacklist del Pentagono: due sentenze opposte spaccano i tribunali USA
Tecnologia

Anthropic nella blacklist del Pentagono: due sentenze opposte spaccano i tribunali USA

Disponibile in formato audio

Una corte d'appello nega la sospensiva, ma un giudice di San Francisco apre uno spiraglio. Il caso dell'azienda di intelligenza artificiale rivela un panorama giuridico frammentato sulla regolamentazione dell'AI negli Stati Uniti

Il doppio binario giudiziario

Due tribunali, due esiti diametralmente opposti. Il caso Anthropic contro il governo federale degli Stati Uniti si sta trasformando in uno dei contenziosi più significativi nella storia della regolamentazione dell'intelligenza artificiale, e la doppia sentenza pronunciata nelle ultime ore non fa che complicare un quadro già intricato.

Da una parte, una corte d'appello federale a Washington ha respinto seccamente la richiesta di sospensiva presentata dall'azienda. Dall'altra, un giudice della corte distrettuale di San Francisco ha accolto parzialmente le istanze di Anthropic, riconoscendo margini di legittimità nelle sue contestazioni. Il risultato è un cortocircuito giuridico che fotografa l'impreparazione del sistema legale americano di fronte alle sfide poste dall'intelligenza artificiale.

La blacklist del Dipartimento della Difesa

Tutto nasce dalla decisione del Dipartimento della Difesa statunitense di inserire Anthropic, la società creatrice del modello di AI generativa Claude, in una blacklist riservata alle entità considerate un rischio per la sicurezza nazionale. Una mossa drastica, che di fatto impedisce al Pentagono e alle sue agenzie affiliate di utilizzare i prodotti dell'azienda.

Le motivazioni ufficiali restano in larga parte classificate, ma stando a quanto emerge dalle memorie processuali, il governo ritiene che le tecnologie di Anthropic presentino vulnerabilità tali da poter compromettere informazioni sensibili. L'azienda, fondata nel 2021 da ex dirigenti di OpenAI, ha sempre rivendicato un approccio alla sicurezza dell'AI tra i più rigorosi del settore, il che rende la decisione del Pentagono ancora più sorprendente.

La corte d'appello boccia Anthropic

Il primo colpo per Anthropic è arrivato dalla corte d'appello del circuito del Distretto di Columbia. I giudici hanno negato la sospensiva cautelare richiesta dall'azienda, bilanciando gli interessi in gioco e concludendo che quelli del governo federale, in materia di sicurezza nazionale, prevalgono.

La decisione non entra nel merito della legittimità dell'inserimento nella blacklist. Si limita a stabilire che, nelle more del giudizio principale, Anthropic non ha dimostrato un danno irreparabile sufficiente a giustificare un intervento d'urgenza. Per i giudici, il rischio per la sicurezza nazionale paventato dal Dipartimento della Difesa costituisce un interesse pubblico che pesa più delle perdite economiche e reputazionali lamentate dall'azienda.

Una logica che ricorda, mutatis mutandis, quella applicata in altri contenziosi tra giganti tecnologici e autorità pubbliche. Come nel caso della sentenza contro Google per accuse di monopolio nella pubblicità online, anche qui si misura il difficile equilibrio tra potere regolatorio dello Stato e libertà d'impresa nel settore tech.

Lo spiraglio di San Francisco

Ma la partita non è chiusa. Praticamente in contemporanea, un giudice federale di San Francisco ha accolto parzialmente le richieste di Anthropic, riconoscendo che il divieto imposto dal Pentagono non si estende automaticamente a tutte le agenzie governative. In pratica, il modello Claude potrà continuare a essere utilizzato da altri enti federali non direttamente collegati alla Difesa.

È un punto tutt'altro che marginale. Anthropic aveva costruito una rete crescente di contratti con diverse agenzie, e un divieto generalizzato avrebbe significato una perdita di fatturato nell'ordine di centinaia di milioni di dollari. La sentenza di San Francisco circoscrive il danno, ma soprattutto apre un fronte interpretativo: se Claude è sicuro per alcune agenzie, come può essere considerato una minaccia per altre?

La contraddizione è evidente, e gli avvocati di Anthropic non hanno mancato di sottolinearla.

Una questione costituzionale aperta

Al centro della strategia difensiva di Anthropic c'è un argomento di peso: l'azienda ha contestato la decisione del Dipartimento della Difesa definendola incostituzionale. Secondo i legali della società, l'inserimento nella blacklist è avvenuto senza un due process adeguato, violando i principi del Quinto Emendamento.

Nessun preavviso formale, nessuna possibilità reale di difesa prima della decisione, nessuna motivazione dettagliata accessibile all'azienda. Anthropic sostiene, in sostanza, di essere stata condannata senza processo. Una tesi che, se accolta nel giudizio di merito, potrebbe avere ripercussioni ben oltre il singolo caso, ridefinendo i limiti del potere discrezionale dell'esecutivo nei confronti delle aziende tecnologiche.

La questione resta aperta. La corte d'appello non si è pronunciata su questo aspetto, limitandosi alla valutazione cautelare. Il giudizio di merito potrebbe arrivare nei prossimi mesi.

Il quadro più ampio: AI e sicurezza nazionale

Il caso Anthropic non nasce nel vuoto. Si inserisce in un contesto di crescente tensione tra il governo federale statunitense e le aziende di intelligenza artificiale, con Washington impegnata a definire i confini di un settore che evolve molto più rapidamente della capacità normativa.

Da un lato, il Pentagono vuole garantirsi la possibilità di escludere tecnologie ritenute rischiose senza dover rendere conto pubblicamente delle proprie valutazioni. Dall'altro, le aziende chiedono trasparenza e prevedibilità, requisiti minimi per operare in un mercato dove un singolo provvedimento può bruciare miliardi di capitalizzazione.

Anche al di là dell'Atlantico il dibattito sulla regolamentazione delle big tech è tutt'altro che sopito. L'Unione Europea sta valutando strumenti di pressione economica sempre più incisivi, come dimostra la possibilità che l'UE tassi le big tech in caso di fallimento delle intese con Trump. E mentre i governi cercano strumenti normativi adeguati, la sfida della disinformazione legata all'AI aggiunge un ulteriore livello di complessità al rapporto tra tecnologia e istituzioni.

Il precedente che si sta formando a Washington potrebbe influenzare profondamente il modo in cui i governi, non solo quello americano, si rapportano alle aziende di intelligenza artificiale. Se il Pentagono può inserire un'azienda in una blacklist senza motivazioni accessibili e senza contraddittorio, il messaggio è chiaro: nel braccio di ferro tra sicurezza nazionale e innovazione tecnologica, è la prima a dettare le regole.

Ma le due sentenze contrastanti dimostrano che nemmeno all'interno del sistema giudiziario statunitense esiste, oggi, una visione condivisa su dove tracciare quella linea.

Pubblicato il: 9 aprile 2026 alle ore 15:52

Domande frequenti

Perché Anthropic è stata inserita nella blacklist del Dipartimento della Difesa degli Stati Uniti?

Anthropic è stata inserita nella blacklist perché il Dipartimento della Difesa ritiene che le sue tecnologie di intelligenza artificiale presentino vulnerabilità che possono compromettere informazioni sensibili e quindi rappresentare un rischio per la sicurezza nazionale.

Quali sono state le decisioni dei tribunali statunitensi sul caso Anthropic?

Una corte d'appello federale a Washington ha respinto la richiesta di sospensiva di Anthropic, privilegiando la sicurezza nazionale. Contemporaneamente, un giudice di San Francisco ha accolto parzialmente le richieste dell'azienda, permettendo l'uso della sua AI da parte di alcune agenzie federali non legate alla Difesa.

Quali sono le principali contestazioni di Anthropic contro la decisione del Pentagono?

Anthropic sostiene che l'inserimento nella blacklist sia avvenuto senza un adeguato processo, violando i principi costituzionali del Quinto Emendamento, poiché non è stata data possibilità di difesa né fornita una motivazione dettagliata accessibile all'azienda.

Quali conseguenze economiche e operative rischia Anthropic a causa di questa vicenda?

Un divieto generalizzato avrebbe comportato per Anthropic la perdita di contratti con diverse agenzie federali, con un possibile danno economico di centinaia di milioni di dollari. La sentenza di San Francisco ha limitato il danno, permettendo all'azienda di lavorare ancora con alcune agenzie.

Qual è il contesto più ampio in cui si inserisce il caso Anthropic?

Il caso Anthropic riflette la crescente tensione tra governi e aziende di intelligenza artificiale sulla regolamentazione e la sicurezza delle tecnologie AI. Rappresenta un precedente importante che potrebbe influenzare il modo in cui le istituzioni regolano le big tech a livello internazionale.

Redazione EduNews24

Articolo creato da

Redazione EduNews24

Articoli pubblicati da parte della redazione di EduNews24.it

Articoli Correlati