{/* Extracted from Header.astro - Use appropriate classes/styles if animations needed */}

Anthropic nella blacklist del Pentagono: due sentenze opposte spaccano i tribunali USA

Una corte d'appello nega la sospensiva, ma un giudice di San Francisco apre uno spiraglio. Il caso dell'azienda di intelligenza artificiale rivela un panorama giuridico frammentato sulla regolamentazione dell'AI negli Stati Uniti

* Il doppio binario giudiziario * La blacklist del Dipartimento della Difesa * La corte d'appello boccia Anthropic * Lo spiraglio di San Francisco * Una questione costituzionale aperta * Il quadro più ampio: AI e sicurezza nazionale

Il doppio binario giudiziario {#il-doppio-binario-giudiziario}

Due tribunali, due esiti diametralmente opposti. Il caso Anthropic contro il governo federale degli Stati Uniti si sta trasformando in uno dei contenziosi più significativi nella storia della regolamentazione dell'intelligenza artificiale, e la doppia sentenza pronunciata nelle ultime ore non fa che complicare un quadro già intricato.

Da una parte, una corte d'appello federale a Washington ha respinto seccamente la richiesta di sospensiva presentata dall'azienda. Dall'altra, un giudice della corte distrettuale di San Francisco ha accolto parzialmente le istanze di Anthropic, riconoscendo margini di legittimità nelle sue contestazioni. Il risultato è un cortocircuito giuridico che fotografa l'impreparazione del sistema legale americano di fronte alle sfide poste dall'intelligenza artificiale.

La blacklist del Dipartimento della Difesa {#la-blacklist-del-dipartimento-della-difesa}

Tutto nasce dalla decisione del Dipartimento della Difesa statunitense di inserire Anthropic, la società creatrice del modello di AI generativa Claude, in una blacklist riservata alle entità considerate un rischio per la sicurezza nazionale. Una mossa drastica, che di fatto impedisce al Pentagono e alle sue agenzie affiliate di utilizzare i prodotti dell'azienda.

Le motivazioni ufficiali restano in larga parte classificate, ma stando a quanto emerge dalle memorie processuali, il governo ritiene che le tecnologie di Anthropic presentino vulnerabilità tali da poter compromettere informazioni sensibili. L'azienda, fondata nel 2021 da ex dirigenti di OpenAI, ha sempre rivendicato un approccio alla sicurezza dell'AI tra i più rigorosi del settore, il che rende la decisione del Pentagono ancora più sorprendente.

La corte d'appello boccia Anthropic {#la-corte-dappello-boccia-anthropic}

Il primo colpo per Anthropic è arrivato dalla corte d'appello del circuito del Distretto di Columbia. I giudici hanno negato la sospensiva cautelare richiesta dall'azienda, bilanciando gli interessi in gioco e concludendo che quelli del governo federale, in materia di sicurezza nazionale, prevalgono.

La decisione non entra nel merito della legittimità dell'inserimento nella blacklist. Si limita a stabilire che, nelle more del giudizio principale, Anthropic non ha dimostrato un danno irreparabile sufficiente a giustificare un intervento d'urgenza. Per i giudici, il rischio per la sicurezza nazionale paventato dal Dipartimento della Difesa costituisce un interesse pubblico che pesa più delle perdite economiche e reputazionali lamentate dall'azienda.

Una logica che ricorda, mutatis mutandis, quella applicata in altri contenziosi tra giganti tecnologici e autorità pubbliche. Come nel caso della sentenza contro Google per accuse di monopolio nella pubblicità online, anche qui si misura il difficile equilibrio tra potere regolatorio dello Stato e libertà d'impresa nel settore tech.

Lo spiraglio di San Francisco {#lo-spiraglio-di-san-francisco}

Ma la partita non è chiusa. Praticamente in contemporanea, un giudice federale di San Francisco ha accolto parzialmente le richieste di Anthropic, riconoscendo che il divieto imposto dal Pentagono non si estende automaticamente a tutte le agenzie governative. In pratica, il modello Claude potrà continuare a essere utilizzato da altri enti federali non direttamente collegati alla Difesa.

È un punto tutt'altro che marginale. Anthropic aveva costruito una rete crescente di contratti con diverse agenzie, e un divieto generalizzato avrebbe significato una perdita di fatturato nell'ordine di centinaia di milioni di dollari. La sentenza di San Francisco circoscrive il danno, ma soprattutto apre un fronte interpretativo: se Claude è sicuro per alcune agenzie, come può essere considerato una minaccia per altre?

La contraddizione è evidente, e gli avvocati di Anthropic non hanno mancato di sottolinearla.

Una questione costituzionale aperta {#una-questione-costituzionale-aperta}

Al centro della strategia difensiva di Anthropic c'è un argomento di peso: l'azienda ha contestato la decisione del Dipartimento della Difesa definendola incostituzionale. Secondo i legali della società, l'inserimento nella blacklist è avvenuto senza un due process adeguato, violando i principi del Quinto Emendamento.

Nessun preavviso formale, nessuna possibilità reale di difesa prima della decisione, nessuna motivazione dettagliata accessibile all'azienda. Anthropic sostiene, in sostanza, di essere stata condannata senza processo. Una tesi che, se accolta nel giudizio di merito, potrebbe avere ripercussioni ben oltre il singolo caso, ridefinendo i limiti del potere discrezionale dell'esecutivo nei confronti delle aziende tecnologiche.

La questione resta aperta. La corte d'appello non si è pronunciata su questo aspetto, limitandosi alla valutazione cautelare. Il giudizio di merito potrebbe arrivare nei prossimi mesi.

Il quadro più ampio: AI e sicurezza nazionale {#il-quadro-più-ampio-ai-e-sicurezza-nazionale}

Il caso Anthropic non nasce nel vuoto. Si inserisce in un contesto di crescente tensione tra il governo federale statunitense e le aziende di intelligenza artificiale, con Washington impegnata a definire i confini di un settore che evolve molto più rapidamente della capacità normativa.

Da un lato, il Pentagono vuole garantirsi la possibilità di escludere tecnologie ritenute rischiose senza dover rendere conto pubblicamente delle proprie valutazioni. Dall'altro, le aziende chiedono trasparenza e prevedibilità, requisiti minimi per operare in un mercato dove un singolo provvedimento può bruciare miliardi di capitalizzazione.

Anche al di là dell'Atlantico il dibattito sulla regolamentazione delle big tech è tutt'altro che sopito. L'Unione Europea sta valutando strumenti di pressione economica sempre più incisivi, come dimostra la possibilità che l'UE tassi le big tech in caso di fallimento delle intese con Trump. E mentre i governi cercano strumenti normativi adeguati, la sfida della disinformazione legata all'AI aggiunge un ulteriore livello di complessità al rapporto tra tecnologia e istituzioni.

Il precedente che si sta formando a Washington potrebbe influenzare profondamente il modo in cui i governi, non solo quello americano, si rapportano alle aziende di intelligenza artificiale. Se il Pentagono può inserire un'azienda in una blacklist senza motivazioni accessibili e senza contraddittorio, il messaggio è chiaro: nel braccio di ferro tra sicurezza nazionale e innovazione tecnologica, è la prima a dettare le regole.

Ma le due sentenze contrastanti dimostrano che nemmeno all'interno del sistema giudiziario statunitense esiste, oggi, una visione condivisa su dove tracciare quella linea.

Pubblicato il: 9 aprile 2026 alle ore 15:52