Loading...
OpenAI, si dimette la responsabile della robotica: "L'accordo con il Pentagono è stato affrettato"
Tecnologia

OpenAI, si dimette la responsabile della robotica: "L'accordo con il Pentagono è stato affrettato"

Caitlin Kalinowski lascia l'azienda di Sam Altman denunciando l'assenza di garanzie etiche nell'intesa con il Dipartimento della Difesa. Un caso che riapre il dibattito sull'uso militare dell'intelligenza artificiale

L'addio di Caitlin Kalinowski

Caitlin Kalinowski non lavora più per OpenAI. La responsabile hardware della divisione robotica — figura di primo piano nell'organigramma dell'azienda guidata da Sam Altman — ha rassegnato le dimissioni in aperto dissenso con la direzione strategica intrapresa dalla società. Il motivo è preciso e politicamente esplosivo: l'accordo siglato tra OpenAI e il Dipartimento della Difesa degli Stati Uniti.

Non si tratta di un avvicendamento fisiologico. Kalinowski ha scelto di rendere pubbliche le ragioni della rottura, parlando di un annuncio "affrettato" e privo delle garanzie etiche che un'intesa di questa portata avrebbe richiesto. Una presa di posizione netta, che arriva in un momento già delicato per i rapporti tra le grandi aziende tecnologiche e l'amministrazione americana, sullo sfondo delle tensioni tra Stati Uniti e Ucraina dopo lo scontro tra Trump e Zelensky e di un quadro geopolitico in rapida evoluzione.

L'accordo con il Pentagono e le critiche interne

I dettagli dell'intesa tra OpenAI e il Pentagono restano in parte riservati, ma stando a quanto emerge dalle dichiarazioni della stessa Kalinowski e da fonti vicine all'azienda, la collaborazione prevede l'impiego di tecnologie di intelligenza artificiale sviluppate da OpenAI per applicazioni legate alla difesa militare. Un passaggio che segna una svolta profonda per un'organizzazione nata nel 2015 con una missione dichiaratamente open e orientata al bene comune.

La critica mossa da Kalinowski non riguarda tanto il principio di una collaborazione con le istituzioni governative — pratica diffusa nella Silicon Valley — quanto le modalità. L'annuncio, secondo la manager, sarebbe stato gestito con tempi troppo compressi, senza una fase adeguata di valutazione interna sulle implicazioni etiche e senza il coinvolgimento pieno delle figure tecniche più esposte, a partire proprio dal team robotica.

Una dinamica che ricorda, per certi versi, le turbolenze vissute da altre big tech alle prese con decisioni controverse. Il caso di Pavel Durov, tornato a Dubai dopo l'arresto a Parigi per questioni legate a Telegram, ha mostrato quanto il confine tra innovazione tecnologica e responsabilità geopolitica sia ormai sottilissimo.

Le preoccupazioni etiche sull'IA in ambito militare

La questione sollevata da Kalinowski non è nuova, ma acquista un peso specifico diverso quando a porla è una dirigente di altissimo livello che decide di andarsene sbattendo la porta. Il tema dell'uso militare dell'intelligenza artificiale è al centro di un dibattito internazionale che coinvolge governi, accademici e organizzazioni della società civile.

Le preoccupazioni principali ruotano attorno ad alcuni nodi:

  • La possibilità che sistemi di IA vengano integrati in armi autonome, capaci di prendere decisioni letali senza supervisione umana diretta.
  • L'assenza di un quadro normativo internazionale vincolante sull'impiego dell'intelligenza artificiale in contesti bellici.
  • Il rischio che la corsa agli armamenti tecnologici acceleri senza i necessari contrappesi democratici e istituzionali.
  • La perdita di credibilità per aziende che hanno costruito il proprio brand sulla promessa di un'IA "sicura e benefica per l'umanità".

Su quest'ultimo punto, la contraddizione appare particolarmente stridente nel caso di OpenAI. L'azienda ha a lungo rivendicato una missione etica come tratto distintivo rispetto ai concorrenti, salvo poi attraversare negli ultimi anni una serie di trasformazioni — dalla struttura no-profit a quella ibrida a scopo di lucro — che hanno progressivamente ridisegnato la sua identità.

Un'azienda che cambia pelle

Le dimissioni di Kalinowski si inseriscono in un quadro più ampio di tensioni interne a OpenAI. Non è la prima fuoriuscita eccellente: negli ultimi anni diversi ricercatori e dirigenti hanno lasciato l'azienda esprimendo perplessità sulla direzione presa, dalla governance alla sicurezza, fino — ora — alle partnership militari.

Il settore tecnologico americano sta vivendo una fase di riposizionamento strategico accelerato. Le grandi aziende dell'IA competono non solo per il mercato consumer e enterprise, ma per contratti governativi che valgono miliardi di dollari. Lo dimostra anche l'aggressività con cui si muovono altri colossi: basti pensare al possibile accordo da 30 miliardi di dollari tra Google e Wiz, che ridisegnerebbe gli equilibri nel settore della cybersicurezza.

Per OpenAI, tuttavia, la posta in gioco è doppia. Da un lato c'è la necessità di generare ricavi sufficienti a sostenere costi di sviluppo colossali. Dall'altro, c'è il capitale reputazionale costruito in anni di promesse sulla sicurezza e sull'allineamento etico dei propri modelli. L'accordo con il Pentagono rischia di erodere proprio quel capitale, alimentando lo scetticismo di chi — dentro e fuori l'azienda — teme che la corsa al profitto e all'influenza politica stia prevalendo sui principi fondativi.

La partita, del resto, non si gioca solo a San Francisco. In Europa, e in Italia in particolare, il dibattito sull'etica dell'intelligenza artificiale ha trovato sponda nell'AI Act approvato dall'Unione Europea, che vieta esplicitamente alcune applicazioni ad alto rischio. Resta da capire se e come le scelte delle big tech americane in ambito militare finiranno per influenzare anche il quadro regolatorio europeo.

Una cosa è certa: con l'uscita di Caitlin Kalinowski, OpenAI perde una voce critica autorevole. E il silenzio che ne seguirà, dentro l'azienda, potrebbe rivelarsi più eloquente delle dimissioni stesse.

Pubblicato il: 9 marzo 2026 alle ore 15:40

Domande frequenti

Perché Caitlin Kalinowski si è dimessa da OpenAI?

Caitlin Kalinowski si è dimessa in aperto dissenso con la decisione dell'azienda di siglare un accordo con il Pentagono, ritenendo l'annuncio affrettato e privo delle necessarie garanzie etiche. Ha criticato soprattutto la mancanza di una valutazione interna approfondita sulle implicazioni dell'accordo.

Quali sono le principali preoccupazioni etiche legate all'accordo tra OpenAI e il Pentagono?

Le principali preoccupazioni riguardano l'eventuale uso dell'intelligenza artificiale in applicazioni militari, come armi autonome, la mancanza di un quadro normativo internazionale e il rischio che l'azienda perda credibilità rispetto alla sua missione originaria di promuovere un'IA sicura e benefica.

Come è stata gestita la comunicazione interna sull'accordo con il Pentagono?

Secondo Kalinowski, l'accordo è stato annunciato con tempistiche troppo rapide e senza il coinvolgimento adeguato dei team tecnici, in particolare quello della robotica. Questo ha impedito una riflessione interna sulle possibili implicazioni etiche della collaborazione.

In che modo l'identità e la missione di OpenAI stanno cambiando?

OpenAI sta attraversando una trasformazione significativa, passando da una struttura no-profit a una ibrida a scopo di lucro e stringendo partnership strategiche, anche in ambito militare. Questi cambiamenti stanno sollevando dubbi interni ed esterni sulla coerenza con la missione iniziale dell'azienda.

Quali potrebbero essere le conseguenze dell'accordo per la reputazione di OpenAI?

L'accordo rischia di erodere il capitale reputazionale dell'azienda, costruito su promesse di sicurezza e allineamento etico. Cresce lo scetticismo tra chi teme che la ricerca del profitto e dell'influenza politica stia prevalendo sui principi fondativi di OpenAI.

Come si inserisce il caso OpenAI nel contesto normativo europeo sull'intelligenza artificiale?

Il dibattito etico sull'IA militare di OpenAI si collega alle recenti normative europee, come l'AI Act, che vieta alcune applicazioni ad alto rischio. Le scelte delle big tech americane potrebbero influenzare il quadro regolatorio europeo e il dibattito in Italia.

Michele Monaco

Articolo creato da

Michele Monaco

Redattore Michele Monaco è imprenditore, ricercatore e docente universitario con oltre vent'anni di esperienza nell'innovazione digitale, nella formazione e nella consulenza strategica. Laureato in Scienze Politiche e Internazionali, è CEO di Adventus Consulting Jdoo (Umag, Croazia dove risiede stabilmente) e Presidente Nazionale di ENBAS, ente bilaterale attivo nella formazione professionale e nelle politiche attive per il lavoro. In qualità di Coordinatore Nazionale dei Progetti di Ricerca presso ERSAF, guida iniziative che coniugano intelligenza artificiale e formazione, tra cui FindYourGoal.it, piattaforma di orientamento scuola-lavoro basata sul modello LifeComp, Avatar4University.Org, sistema AI per la creazione di corsi universitari con avatar docente, KeepYouCare.it, piattaforma di telemedicina, telesoccorso e telerefertazione. È inoltre Delegato della Regione Calabria presso il Ministero degli Esteri per la Cooperazione Internazionale ed è membro del tavolo delle regioni, dove coordina un progetto per la creazione di un Hub Formativo in Tunisia. Docente a contratto di Diritto dell'Economia e Diritto Internazionale presso la SSML di Lamezia Terme e presso l'Università Telematica eCampus, è autore di pubblicazioni in ambito pedagogico sulle competenze caratteriali e il framework LifeComp. Ha tenuto interventi al Senato della Repubblica, alla Camera dei Deputati, in Regione Lombardia e a Buenos Aires su temi che spaziano dalla pedagogia speciale, alla telemedicina ed alla cooperazione internazionale. Innovation Manager certificato MISE, unisce visione strategica e competenza tecnologica con una vocazione per il dialogo istituzionale e la ricerca applicata.

Articoli Correlati