* L'addio di Kalinowski e le ragioni della rottura * L'accordo OpenAI-Pentagono: cosa sappiamo * Anthropic disse no: il precedente che pesa * Intelligenza artificiale e armi: un confine sempre più sottile * Le ripercussioni nel mondo tech e oltre
L'addio di Kalinowski e le ragioni della rottura {#laddio-di-kalinowski-e-le-ragioni-della-rottura}
Non è il tipo di dimissioni che passa inosservato. Caitlin Kalinowski, fino a poche settimane fa alla guida della divisione robotica di OpenAI, ha annunciato pubblicamente la propria uscita dall'azienda. Il motivo è tutt'altro che ordinario: l'accordo stretto dalla società di Sam Altman con il Dipartimento della Difesa degli Stati Uniti — il Pentagono, per intenderci — ha rappresentato per lei un punto di non ritorno.
Kalinowski non ha usato toni incendiari, ma le sue parole lasciano poco spazio all'ambiguità. La partnership militare, ha dichiarato, "meritava una riflessione maggiore" prima di essere finalizzata. Una frase misurata, quasi diplomatica, che tuttavia suona come un atto d'accusa nei confronti di una governance aziendale percepita come troppo rapida nel varcare soglie etiche delicate.
Chi segue le vicende interne di OpenAI sa che non è la prima volta che l'azienda perde figure di rilievo su questioni di principio. Ma questa volta il nodo è particolarmente sensibile: non si parla di modelli linguistici o di prodotti consumer — come il discusso smartphone senza schermo sviluppato con Jony Ive — bensì dell'impiego dell'intelligenza artificiale in ambito militare.
L'accordo OpenAI-Pentagono: cosa sappiamo {#laccordo-openai-pentagono-cosa-sappiamo}
I dettagli dell'intesa tra OpenAI e il Pentagono restano in larga parte riservati. Stando a quanto emerge dalle ricostruzioni della stampa americana, l'accordo prevede la fornitura di tecnologie AI per applicazioni legate alla difesa nazionale. Non è chiaro se si tratti di strumenti di analisi dati, supporto logistico, cybersicurezza o qualcosa di più direttamente connesso a sistemi d'arma.
Quel che è certo è il cambio di rotta. Per anni OpenAI aveva mantenuto una posizione pubblica piuttosto netta: niente collaborazioni con apparati militari. La charter originaria dell'organizzazione — nata nel 2015 come ente no-profit — poneva l'accento sulla necessità di sviluppare un'intelligenza artificiale "sicura e benefica per l'umanità". Parole che oggi, alla luce della partnership con il Dipartimento della Difesa, suonano come un impegno tradito agli occhi di chi, come Kalinowski, ha creduto in quella missione.
La transizione di OpenAI verso un modello sempre più orientato al profitto — con la struttura capped-profit introdotta nel 2019 e le successive iniezioni di capitale miliardario — aveva già sollevato dubbi. L'accordo con il Pentagono segna però un salto qualitativo: dall'erosione graduale dei principi fondativi si passa a una scelta strategica esplicita.
Anthropic disse no: il precedente che pesa {#anthropic-disse-no-il-precedente-che-pesa}
A rendere ancora più significativa la vicenda c'è un elemento che non può essere trascurato. Prima di rivolgersi a OpenAI, il Dipartimento della Difesa aveva bussato alla porta di Anthropic, l'azienda fondata da ex dipendenti di OpenAI stessa — tra cui Dario e Daniela Amodei — proprio per divergenze sulla sicurezza dell'AI.
Anthropic ha rifiutato. Le ragioni precise del diniego non sono state rese pubbliche, ma la decisione appare coerente con la filosofia aziendale che l'ha portata a posizionarsi come l'alternativa "responsabile" nel panorama dell'intelligenza artificiale generativa.
Il Pentagono si è dunque rivolto a OpenAI, trovando questa volta una porta aperta. Il contrasto tra le due risposte racconta molto sulle fratture interne al settore tech: da un lato chi ritiene che certe linee rosse non vadano oltrepassate, dall'altro chi — come la dirigenza di OpenAI — sembra aver deciso che la collaborazione con le istituzioni militari rientri nel perimetro dell'accettabile. O, forse, del necessario per restare competitivi nella corsa geopolitica all'AI.
Intelligenza artificiale e armi: un confine sempre più sottile {#intelligenza-artificiale-e-armi-un-confine-sempre-più-sottile}
La questione, va detto, non riguarda solo OpenAI. L'intreccio tra intelligenza artificiale e difesa militare è uno dei temi più urgenti e meno risolti del nostro tempo. Il Parlamento europeo, con l'AI Act entrato in vigore nel 2024, ha scelto di escludere esplicitamente le applicazioni militari dal proprio campo di regolazione — una lacuna che molti osservatori considerano problematica.
Negli Stati Uniti il quadro è ancora più fluido. Il Dipartimento della Difesa ha varato una propria strategia sull'AI già nel 2019, aggiornata più volte, che prevede l'adozione "responsabile" di tecnologie di intelligenza artificiale. Ma i criteri di tale responsabilità sono definiti dalle stesse istituzioni che beneficiano della tecnologia: un cortocircuito evidente.
Le preoccupazioni non si limitano ai sistemi d'arma autonomi — i cosiddetti killer robots che animano il dibattito alle Nazioni Unite da oltre un decennio. Anche applicazioni apparentemente meno controverse, come l'analisi predittiva dei conflitti o il riconoscimento facciale in zone di guerra, sollevano interrogativi profondi sulla responsabilità, sulla trasparenza e sul rischio di errori con conseguenze irreversibili.
Il nodo della doppia destinazione
Un aspetto spesso sottovalutato riguarda la natura intrinsecamente dual-use delle tecnologie AI. Un modello linguistico avanzato può servire a tradurre documenti diplomatici come a elaborare strategie di disinformazione. Un sistema di visione artificiale può guidare droni per consegne civili o per operazioni militari. La stessa tecnologia, lo stesso codice: cambia solo il contesto di impiego.
È proprio questa ambiguità a rendere così complicata qualsiasi regolazione efficace. E a spiegare perché le dimissioni di una singola ricercatrice — per quanto autorevole — difficilmente basteranno a invertire una tendenza che appare ormai strutturale.
Le ripercussioni nel mondo tech e oltre {#le-ripercussioni-nel-mondo-tech-e-oltre}
L'uscita di Kalinowski arriva in un momento delicato per OpenAI, impegnata su più fronti: dall'espansione nel settore hardware alla possibile incursione nel mondo dei social network, fino alla competizione serrata con Google — che a sua volta sta investendo cifre colossali in acquisizioni strategiche, come nel caso dell'operazione da 30 miliardi di dollari con Wiz.
In questo scenario, la partnership con il Pentagono potrebbe rivelarsi un'arma a doppio taglio. Da un lato garantisce entrate significative e un rapporto privilegiato con il governo federale — un asset non da poco in un settore dove la regolazione è in arrivo. Dall'altro rischia di alienare talenti, ricercatori e una parte dell'opinione pubblica che aveva visto in OpenAI qualcosa di diverso rispetto ai colossi tradizionali della Silicon Valley.
La partita, del resto, non si gioca solo a Washington. Anche in Europa il dibattito sull'etica dell'intelligenza artificiale applicata al comparto difesa si fa sempre più acceso, con l'Italia — membro NATO e partner tecnologico in diversi programmi di cooperazione — direttamente coinvolta nelle discussioni sulla governance internazionale dell'AI militare.
La questione resta aperta. E le dimissioni di Caitlin Kalinowski, più che una risposta, rappresentano una domanda rivolta all'intero settore: esiste un limite che l'intelligenza artificiale non dovrebbe oltrepassare? E soprattutto, chi ha il diritto — o il dovere — di tracciarlo?