{/* Extracted from Header.astro - Use appropriate classes/styles if animations needed */}

Anthropic denuncia campagne industriali di furto dati AI: DeepSeek, Moonshot e MiniMax sotto accusa per 16 milioni di richieste fraudolente a Claude

Scontro internazionale sulla sicurezza dei modelli di intelligenza artificiale: la startup americana accusa tre laboratori cinesi di aver orchestrato una sistematica estrazione di dati dal suo sistema di punta

Anthropic denuncia campagne industriali di furto dati AI: DeepSeek, Moonshot e MiniMax sotto accusa per 16 milioni di richieste fraudolente a Claude

Indice dei contenuti

* Introduzione * Il caso Anthropic: cronaca e dettagli dell’accusa * Chi sono DeepSeek, Moonshot e MiniMax * Il funzionamento dell’attacco: distillazione, scraping e furto di dati * Ruolo dei servizi proxy nel superamento delle restrizioni * L’individuazione di 24.000 account fraudolenti * Come Anthropic ha rafforzato la sicurezza del modello Claude * Implicazioni geopolitiche e industriali per l’AI tra USA e Cina * I rischi per il futuro della sicurezza AI * Soluzioni raccomandate e prospettive di tutela * Conclusioni: la sfida globale della protezione dei modelli AI

Introduzione

Nel febbraio 2026, la startup statunitense Anthropic ha sollevato il sipario su una vicenda che sta facendo discutere l’intera comunità internazionale dell’intelligenza artificiale: la scoperta di campagne industriali su larga scala orchestrate da tre noti laboratori di AI cinesi, DeepSeek, Moonshot e MiniMax, mirate all’estrazione non autorizzata di capacità e conoscenze tecniche dal proprio modello di punta, Claude. L’accusa è di aver effettuato più di 16 milioni di richieste fraudolente attraverso 24.000 account sospetti, usando sofisticati servizi proxy per eludere i sistemi di sicurezza. Il caso porta in primo piano il delicato tema della cybersecurity applicata all’AI e le crescenti tensioni tra Stati Uniti e Cina nella corsa all’innovazione tecnologica.

Il caso Anthropic: cronaca e dettagli dell’accusa

Anthropic, fondata da ex ricercatori di OpenAI, ha dichiarato pubblicamente di aver rilevato e bloccato una vasta campagna di furto industriale ai danni del proprio modello Claude. Secondo i portavoce, DeepSeek, Moonshot e MiniMax – tre laboratori fra i più attivi nell’ecosistema AI cinese – avrebbero concertato un attacco il cui obiettivo era quello di “distillare” le capacità avanzate di Claude attraverso l’invio di oltre 16 milioni di domande, principalmente progettate per estrarre prompt di addestramento, risposte elaborate e peculiarità di funzionamento del modello americano.

La modalità di azione consisteva nell’utilizzare una moltitudine di account pseudonimi, apparentemente normali, ma in realtà orchestrati da operatori riconducibili ai tre gruppi cinesi. L’azione di massa ha permesso di superare le limitazioni standard di utilizzo e di racimolare una mole considerevole di dati che potenzialmente avrebbero potuto essere usati per l’addestramento di modelli concorrenti.

Chi sono DeepSeek, Moonshot e MiniMax

Per meglio comprendere la delicatezza della vicenda, è utile osservare da vicino i soggetti coinvolti. DeepSeek, Moonshot e MiniMax sono tre laboratori di intelligenza artificiale tra i più dinamici e finanziati della Cina. Queste aziende sviluppano e addestrano sistemi di AI generativa che competono direttamente con le principali soluzioni americane. Il fatto che si siano organizzate in un’azione comune fa pensare a una strategia industriale mirata, probabilmente motivata dalla volontà di recuperare rapidamente terreno nei confronti dei competitor occidentali.

Le società sono note per aver lanciato diverse versioni di modelli linguistici di grandi dimensioni (LLM) negli ultimi anni, ottenendo il favore di imprese cinesi e del governo di Pechino. Tuttavia, proprio la pressione competitiva ha portato, secondo Anthropic, a ricorrere ad azioni scorrette quali la sottrazione sistematica di dati da modelli occidentali tramite richieste automatizzate di grandi dimensioni.

Il funzionamento dell’attacco: distillazione, scraping e furto di dati

L’accusa principale rivolta ai laboratori cinesi è quella di aver operato una vera e propria “distillazione” del modello Claude. Ma cosa significa in termini tecnici?

Il processo denominato model distillation consiste nell’analizzare le risposte fornite da un modello particolarmente avanzato per ricostruire, almeno in parte, la sua logica interna, le procedure decisionali e il modo in cui è stato addestrato. In pratica, si fanno domande mirate a un sistema AI, si raccolgono tutte le risposte ottenute e si usano questi dati per affinare un proprio modello concorrente.

Secondo le ricostruzioni di Anthropic, le campagne incriminate avrebbero sfruttato un’automazione sofisticata per creare migliaia di account apparentemente diversi, ognuno dei quali inviava domande a Claude tramite API pubbliche o servizi web. Le domande erano strutturate per estrarre, passo dopo passo, dettagli sempre più specifici e di valore. Questo ha portato a un volume totale stimato in oltre 16 milioni di richieste, un dato che sottolinea la portata industriale dell’operazione.

Ruolo dei servizi proxy nel superamento delle restrizioni

Uno degli aspetti tecnicamente più rilevanti della vicenda è stato l’uso di servizi proxy. Secondo Anthropic, DeepSeek, Moonshot e MiniMax avrebbero impostato una rete globale di proxy – server intermediari che consentono di celare la reale origine delle richieste – al fine di eludere le restrizioni geografiche e le misure di sicurezza normalmente poste a tutela del modello Claude.

Grazie ai proxy, i laboratori hanno potuto far comparire le richieste come se provenissero da diversi paesi e centri dati di tutto il mondo, rendendo complessa la loro individuazione tramite gli ordinari sistemi di monitoraggio del traffico. Questa tecnica, ampiamente nota nel campo del _cybercrime_, trova una preoccupante applicazione nella guerra industriale tra grandi potenze tecnologiche. L’uso di proxy ha inoltre permesso di aggirare temporaneamente limiti di utilizzo per singolo utente o IP, aumentando esponenzialmente il numero di richieste processabili senza destare sospetti immediati.

L’individuazione di 24.000 account fraudolenti

Il cuore dell’indagine tecnica condotta da Anthropic è stata la scoperta di circa 24.000 account riconducibili a tentativi di scraping non autorizzato. Questo dato rappresenta una cifra straordinariamente alta, indicativa di un’operazione pianificata nei minimi dettagli e su scala industriale.

Gli account erano spesso registrati con identità fittizie e creavano un flusso di richieste omogeneo ma discreto, progettato proprio per non superare i limiti che avrebbero potuto attivare immediatamente sistemi di allarme automatico. Alcuni di essi utilizzavano email create automaticamente e dati fake per aumentare la complessità delle indagini.

Il compito del team di sicurezza Anthropic è stato quindi quello di isolare, analizzare e chiudere progressivamente gli account sospetti, bloccando l’afflusso di richieste anomale e introducendo nuovi algoritmi di behavioral analysis in grado di riconoscere pattern tipici dello scraping automatizzato su AI avanzate.

Come Anthropic ha rafforzato la sicurezza del modello Claude

Le rivelazioni hanno costretto Anthropic a intervenire con immediatezza e decisione sul proprio sistema di protezione dell’AI. Sono stati introdotti nuovi livelli di sicurezza e monitoraggio, tra cui:

* Analisi avanzata degli schemi di richiesta (pattern analysis) * Rilevamento proattivo di comportamenti sospetti su base account, sessione e IP * Miglioramenti nell’analisi delle firme digitali delle richieste automatiche * Sviluppo di tecnologie anti-proxy e tracciamento delle origini effettive * Monitoraggio continuo dei flussi di dati in entrata e uscita

Questi interventi hanno già prodotto una sensibile diminuzione delle richieste fraudolente e una maggiore capacità predittiva nell’individuazione di attacchi futuri, ma la vicenda ha anche evidenziato la necessità di un aggiornamento continuo nella sicurezza dei modelli AI, vista la rapidità con cui emergono nuove tecniche di elusione.

Implicazioni geopolitiche e industriali per l’AI tra USA e Cina

L’attacco a Claude non è solo una questione di sicurezza informatica, ma anche un segnale delle tensioni geopolitiche tra Stati Uniti e Cina nel campo dell’intelligenza artificiale. Da anni, infatti, le principali potenze tech si contendono la leadership nel settore AI, consapevoli dell’enorme impatto strategico dei modelli linguistici avanzati.

La vicenda sottolinea l’urgenza di soluzioni internazionali condivise per la tutela dei sistemi AI e apre la strada a nuovi dibattiti sulla protezione della proprietà intellettuale e sulla responsabilità dei laboratori di ricerca pubblici e privati. È prevedibile che il caso venga portato anche nelle sedi istituzionali, aumentando le richieste di maggiori regole e controlli a livello globale.

I rischi per il futuro della sicurezza AI

La storia di Anthropic e dei laboratori cinesi porta alla luce i limiti delle difese tradizionali nei confronti di attori capaci, determinati e ben finanziati. Nel futuro prossimo, sarà sempre più necessario investire nello sviluppo di tecnologie antifrode per la protezione non solo del know-how industriale, ma anche dei dati personali gestiti dai modelli AI.

Il timore degli esperti è che simili campagne possano diventare sempre più comuni, aggravando la corsa agli armamenti nell’AI mondiale e minacciando l’affidabilità stessa dei grandi modelli generativi. Se un modello può essere replicato o imitato semplicemente tramite attacchi di scraping intelligente, il vantaggio competitivo delle aziende rischia di ridursi drasticamente.

Soluzioni raccomandate e prospettive di tutela

Di fronte a minacce di questo livello, le aziende del settore AI devono adottare una serie di misure preventive e reattive:

* Incrementare la collaborazione internazionale tra aziende e governi per la condivisione di informazioni sugli attacchi * Sviluppare strumenti di autenticazione multifattoriale e di gestione dell’identità per l’accesso alle API AI * Impiegare tecniche di rate limiting intelligente, variabili e adattive * Applicare metodi di obfuscation dei dati in uscita, in modo da confondere i tentativi di distillazione * Avviare audit continui sui flussi di traffico e sulle anomalie comportamentali

Inoltre, sarà cruciale sensibilizzare l’opinione pubblica e gli utenti sui rischi legati all’utilizzo non protetto delle tecnologie AI di nuova generazione.

Conclusioni: la sfida globale della protezione dei modelli AI

Il caso Anthropic contro DeepSeek, Moonshot e MiniMax rappresenta solo il primo grande segnale di una nuova era delle sfide sulla sicurezza AI: la battaglia non sarà solo tra hacker e aziende hi-tech, ma vedrà coinvolti stati, istituzioni e intere filiere industriali. Motivo per cui la sola risposta tecnica potrebbe non bastare: regolamentazione concertata, investimenti costanti nella cybersecurity e condivisione trasparente delle minacce saranno le chiavi per tutelare l’eccellenza e il vantaggio strategico nell’innovazione digitale globale.

Il settore, da oggi, sa che la protezione dei modelli AI non è più in discussione: è prioritaria, per non dire imprescindibile.

Pubblicato il: 24 febbraio 2026 alle ore 09:33