{/* Extracted from Header.astro - Use appropriate classes/styles if animations needed */}

OpenAI, si dimette la responsabile della robotica: "L'accordo con il Pentagono è stato affrettato"

Caitlin Kalinowski lascia l'azienda di Sam Altman denunciando l'assenza di garanzie etiche nell'intesa con il Dipartimento della Difesa. Un caso che riapre il dibattito sull'uso militare dell'intelligenza artificiale

* L'addio di Caitlin Kalinowski * L'accordo con il Pentagono e le critiche interne * Le preoccupazioni etiche sull'IA in ambito militare * Un'azienda che cambia pelle

L'addio di Caitlin Kalinowski {#laddio-di-caitlin-kalinowski}

Caitlin Kalinowski non lavora più per OpenAI. La responsabile hardware della divisione robotica — figura di primo piano nell'organigramma dell'azienda guidata da Sam Altman — ha rassegnato le dimissioni in aperto dissenso con la direzione strategica intrapresa dalla società. Il motivo è preciso e politicamente esplosivo: l'accordo siglato tra OpenAI e il Dipartimento della Difesa degli Stati Uniti.

Non si tratta di un avvicendamento fisiologico. Kalinowski ha scelto di rendere pubbliche le ragioni della rottura, parlando di un annuncio "affrettato" e privo delle garanzie etiche che un'intesa di questa portata avrebbe richiesto. Una presa di posizione netta, che arriva in un momento già delicato per i rapporti tra le grandi aziende tecnologiche e l'amministrazione americana, sullo sfondo delle tensioni tra Stati Uniti e Ucraina dopo lo scontro tra Trump e Zelensky e di un quadro geopolitico in rapida evoluzione.

L'accordo con il Pentagono e le critiche interne {#laccordo-con-il-pentagono-e-le-critiche-interne}

I dettagli dell'intesa tra OpenAI e il Pentagono restano in parte riservati, ma stando a quanto emerge dalle dichiarazioni della stessa Kalinowski e da fonti vicine all'azienda, la collaborazione prevede l'impiego di tecnologie di intelligenza artificiale sviluppate da OpenAI per applicazioni legate alla difesa militare. Un passaggio che segna una svolta profonda per un'organizzazione nata nel 2015 con una missione dichiaratamente open e orientata al bene comune.

La critica mossa da Kalinowski non riguarda tanto il principio di una collaborazione con le istituzioni governative — pratica diffusa nella Silicon Valley — quanto le modalità. L'annuncio, secondo la manager, sarebbe stato gestito con tempi troppo compressi, senza una fase adeguata di valutazione interna sulle implicazioni etiche e senza il coinvolgimento pieno delle figure tecniche più esposte, a partire proprio dal team robotica.

Una dinamica che ricorda, per certi versi, le turbolenze vissute da altre big tech alle prese con decisioni controverse. Il caso di Pavel Durov, tornato a Dubai dopo l'arresto a Parigi per questioni legate a Telegram, ha mostrato quanto il confine tra innovazione tecnologica e responsabilità geopolitica sia ormai sottilissimo.

Le preoccupazioni etiche sull'IA in ambito militare {#le-preoccupazioni-etiche-sullia-in-ambito-militare}

La questione sollevata da Kalinowski non è nuova, ma acquista un peso specifico diverso quando a porla è una dirigente di altissimo livello che decide di andarsene sbattendo la porta. Il tema dell'uso militare dell'intelligenza artificiale è al centro di un dibattito internazionale che coinvolge governi, accademici e organizzazioni della società civile.

Le preoccupazioni principali ruotano attorno ad alcuni nodi:

* La possibilità che sistemi di IA vengano integrati in armi autonome, capaci di prendere decisioni letali senza supervisione umana diretta. * L'assenza di un quadro normativo internazionale vincolante sull'impiego dell'intelligenza artificiale in contesti bellici. * Il rischio che la corsa agli armamenti tecnologici acceleri senza i necessari contrappesi democratici e istituzionali. * La perdita di credibilità per aziende che hanno costruito il proprio brand sulla promessa di un'IA "sicura e benefica per l'umanità".

Su quest'ultimo punto, la contraddizione appare particolarmente stridente nel caso di OpenAI. L'azienda ha a lungo rivendicato una missione etica come tratto distintivo rispetto ai concorrenti, salvo poi attraversare negli ultimi anni una serie di trasformazioni — dalla struttura no-profit a quella ibrida a scopo di lucro — che hanno progressivamente ridisegnato la sua identità.

Un'azienda che cambia pelle {#unazienda-che-cambia-pelle}

Le dimissioni di Kalinowski si inseriscono in un quadro più ampio di tensioni interne a OpenAI. Non è la prima fuoriuscita eccellente: negli ultimi anni diversi ricercatori e dirigenti hanno lasciato l'azienda esprimendo perplessità sulla direzione presa, dalla governance alla sicurezza, fino — ora — alle partnership militari.

Il settore tecnologico americano sta vivendo una fase di riposizionamento strategico accelerato. Le grandi aziende dell'IA competono non solo per il mercato consumer e enterprise, ma per contratti governativi che valgono miliardi di dollari. Lo dimostra anche l'aggressività con cui si muovono altri colossi: basti pensare al possibile accordo da 30 miliardi di dollari tra Google e Wiz, che ridisegnerebbe gli equilibri nel settore della cybersicurezza.

Per OpenAI, tuttavia, la posta in gioco è doppia. Da un lato c'è la necessità di generare ricavi sufficienti a sostenere costi di sviluppo colossali. Dall'altro, c'è il capitale reputazionale costruito in anni di promesse sulla sicurezza e sull'allineamento etico dei propri modelli. L'accordo con il Pentagono rischia di erodere proprio quel capitale, alimentando lo scetticismo di chi — dentro e fuori l'azienda — teme che la corsa al profitto e all'influenza politica stia prevalendo sui principi fondativi.

La partita, del resto, non si gioca solo a San Francisco. In Europa, e in Italia in particolare, il dibattito sull'etica dell'intelligenza artificiale ha trovato sponda nell'_AI Act_ approvato dall'Unione Europea, che vieta esplicitamente alcune applicazioni ad alto rischio. Resta da capire se e come le scelte delle big tech americane in ambito militare finiranno per influenzare anche il quadro regolatorio europeo.

Una cosa è certa: con l'uscita di Caitlin Kalinowski, OpenAI perde una voce critica autorevole. E il silenzio che ne seguirà, dentro l'azienda, potrebbe rivelarsi più eloquente delle dimissioni stesse.

Pubblicato il: 9 marzo 2026 alle ore 15:40