Sicurezza a rischio: ex ingegnere denuncia Figure AI per i robot umanoidi troppo pericolosi
Indice degli argomenti
- Introduzione al caso Figure AI e alla denuncia dell’ex ingegnere
- Il profilo di Figure AI e lo stato dell’arte dei robot umanoidi
- Le dichiarazioni di Robert Gruendel: allarmi ignorati e incidente alla porta d’acciaio
- Il ruolo della sicurezza nell’ingegneria robotica: limiti e responsabilità
- Reazioni interne e la presunta rimozione di Gruendel
- Analisi della posizione dei vertici aziendali
- Impatto sul settore e conseguenze legali
- Il dibattito etico: serve una nuova regolamentazione?
- Riflessioni sulla sicurezza dei robot IA: quali garanzie per il futuro?
- Sintesi e prospettive future
Introduzione al caso Figure AI e alla denuncia dell’ex ingegnere
Il 24 novembre 2025 a Milano è scoppiato uno dei casi più discussi degli ultimi anni nel campo dell'intelligenza artificiale e della robotica. Robert Gruendel, ex ingegnere e stimato esperto di sicurezza, ha intentato una causa contro la startup Figure AI, azienda in prima linea nello sviluppo di robot umanoidi autoapprendenti dotati di intelligenza artificiale avanzata.
Al centro della denuncia ci sono accuse precise e preoccupanti: Gruendel sostiene che i robot costruiti dall’azienda sarebbero in grado di produrre una forza tale da fratturare un cranio umano e che la direzione di Figure AI avrebbe deliberatamente ignorato diversi avvertimenti riguardo ai limiti della sicurezza. Questo caso ha riacceso il dibattito nazionale sui pericoli potenziali dei "robot intelligenti", e la notizia si sta rapidamente diffondendo nei principali circuiti mediatici e tra gli addetti ai lavori.
Il profilo di Figure AI e lo stato dell’arte dei robot umanoidi
Figure AI è tra le startup più innovative del settore, grazie alla sua pionieristica attività nello sviluppo di robot umanoidi dotati di intelligenza artificiale. L’obiettivo dichiarato dell’azienda è integrare queste macchine nella vita quotidiana, dagli ambienti industriali alla domotica, passando per la sanità e i servizi di assistenza.
Gli ultimi modelli sanno:
- Interagire in linguaggio naturale con le persone;
- Apprendere dai comportamenti e da situazioni complesse tramite sofisticati algoritmi di apprendimento automatico;
- Eseguire compiti manuali, anche in contesti ad alto rischio e ad alta complessità.
Tuttavia, queste stesse tecnologie che promettono di cambiare il mondo hanno fatto emergere, secondo Gruendel, problemi di sicurezza non trascurabili: la forza fisica combinata con decisioni governate da un’IA può rappresentare un potenziale rischio reale per l’incolumità fisica degli utenti.
Le dichiarazioni di Robert Gruendel: allarmi ignorati e incidente alla porta d’acciaio
La denuncia depositata presso il tribunale di Milano contiene dettagli inquietanti. Secondo Gruendel, "i robot Figure AI possono fratturare un cranio umano, data la loro potenza", e la progettazione attuale li rende potenzialmente pericolosi in caso di malfunzionamento, errore di programmazione o uso improprio. Un episodio particolare viene riportato come prova della forza letale di questi dispositivi: uno dei prototipi, durante un test in laboratorio, sarebbe riuscito a incidere un taglio netto in una porta d’acciaio. Un segno per Gruendel non solo delle impressionanti capacità meccaniche dei robot, ma anche delle insufficienti barriere di sicurezza con cui vengono sviluppati.
L’ingegnere afferma inoltre di aver più volte avvertito i responsabili tecnici e i dirigenti dell’azienda sull’urgenza di rafforzare i sistemi di sicurezza. Tuttavia, le sue preoccupazioni sarebbero state etichettate come ostacoli all’innovazione e al raggiungimento degli obiettivi aziendali.
Queste accuse, dettagliate nel fascicolo processuale, contengono anche suggerimenti operativi che Gruendel avrebbe tentato di implementare per ridurre i rischi operativi sia nei prototipi sia nei prodotti commerciali, tra cui:
- Limiti software all’intensità delle forze meccaniche generabili dai robot;
- Sistemi di emergenza esterni per il blocco immediato dei dispositivi in caso di anomalia;
- Procedure obbligatorie di revisione e controllo su ogni aggiornamento software.
Il ruolo della sicurezza nell’ingegneria robotica: limiti e responsabilità
La denuncia di Gruendel porta in primo piano una questione annosa: la sicurezza nello sviluppo di tecnologie all’avanguardia, dove confini tra innovazione e rischio non sono sempre chiari.
Nel settore della robotica, le linee guida sulla sicurezza dei robot IA sono ancora in larga parte auto-regolate o affidate a standard industriali non vincolanti. Le procedure sono spesso concentrate sui rischi per l’ambiente di lavoro e per la produzione, meno sugli impatti potenziali sull’utente finale o sulla società nel complesso. La stessa forza esercitata da un robot umanoide, come dimostrato dal caso della porta d’acciaio, diventa una variabile cruciale: se gestita impropriamente può trasformarsi in uno strumento di pericolo, intenzionale o accidentale.
Gli ingegneri e gli esperti di sicurezza hanno la responsabilità di identificare e minimizzare ogni rischio prevedibile, ma la pressione del mercato spesso impone una corsa alla messa in commercio che può portare a compromessi sugli aspetti cautelativi.
Reazioni interne e la presunta rimozione di Gruendel
Un passaggio chiave della vicenda riguarda il rapporto tra Gruendel e la dirigenza di Figure AI. Secondo la ricostruzione dell’ex responsabile della sicurezza, le sue insistenze a favore di una revisione più stringente dei protocolli non sarebbero state accolte favorevolmente. Anzi, la sua posizione sarebbe stata gradualmente isolata fino all’allontanamento, avvenuto secondo il diretto interessato con il pretesto di un cambio di strategia aziendale.
Nel documento di denuncia si legge che "la percezione delle responsabilità sul tema dei robot pericolosi era da parte di alcuni dirigenti quella di un ostacolo operativo, più che una priorità da affrontare immediatamente." Questo comportamento, secondo Gruendel, avrebbe reso l’ambiente lavorativo insicuro sia dal punto di vista pratico che etico.
Analisi della posizione dei vertici aziendali
Ad oggi, la risposta ufficiale della direzione di Figure AI si limita a una nota stringata dove si afferma la piena fiducia nei propri protocolli di sicurezza e nella conformità agli standard internazionali. Secondo fonti interne, l’allontanamento di Gruendel sarebbe legato a una ristrutturazione aziendale iniziata prima dell'esplosione del caso mediatico, e la sua denuncia rappresenterebbe una "lettura parziale dei fatti".
Tuttavia, diversi osservatori sottolineano come la reticenza sulle questioni relative ai pericoli reali dei robot IA possa costituire un grave errore reputazionale per Figure AI. In un clima già segnato da diffidenza e attenzione verso il tema delle nuove tecnologie, la trasparenza sulle procedure di controllo e sulla reazione ai segnali di allarme diventa elemento cruciale per la credibilità di un operatore del settore.
Impatto sul settore e conseguenze legali
Il caso legale avviato da Gruendel ha immediate ripercussioni sia sul mercato della robotica che su quello della sicurezza informatica e industriale. La possibilità che un robot possa arrecare danni letali, anche solo per errore, rappresenta un rischio che investe potenzialmente ogni azienda che si occupa di tecnologie autonome.
Nel caso specifico, le accuse di negligenza nella presa in carico dei problemi di sicurezza potrebbero generare nuove richieste di verifiche da parte degli organismi di vigilanza. Si prevede anche, a breve, un incremento di richiami a livello europeo per la definizione di limiti tecnici e vincoli su progettazione, produzione e gestione operativa dei robot dotati di IA.
Dal punto di vista strettamente giuridico, la vicenda rappresenta un precedente: laddove il rischio si concretizza nei fatti, la responsabilità dell’azienda può infatti avere conseguenze anche penali oltre che civili. Di fronte a un’eventuale condanna, Figure AI potrebbe vedersi costretta a ritirare dal mercato alcuni modelli, rivedere interamente i protocolli di sicurezza e risarcire danni materiali e morali.
Il dibattito etico: serve una nuova regolamentazione?
Il caso Figure AI riapre un ampio confronto etico sulla necessità di nuove regole per affrontare i pericoli dei robot IA. Oltre ai profili tecnici, emerge il quesito se sia giusto limitare d’imperio l’autonomia e la potenza dei dispositivi destinati all’interazione con l’uomo.
I principali nodi da sciogliere sono:
- Chi è responsabile in caso di danni accidentali causati da algoritmi imprevedibili?
- È opportuno inserire limiti rigidi di forza nei robot, anche a costo di ridurne le funzionalità?
- Come regolamentare l’autonomia decisionale dell’intelligenza artificiale, specie nelle situazioni di emergenza?
Molti esperti ritengono urgente una normativa specifica per l’uso industriale e privato dei robot dotati di forza letale, accompagnata da sistemi di certificazione indipendenti e da obblighi di trasparenza sulle procedure di sicurezza.
Riflessioni sulla sicurezza dei robot IA: quali garanzie per il futuro?
Il timore che robot sempre più autonomi e potenti possano sfuggire al controllo umano richiede risposte concrete e immediate. Non si tratta solo di evitare incidenti, ma di ristabilire il patto di fiducia tra chi sviluppa tecnologia e la società nel suo complesso. È fondamentale agire su più fronti:
- Educazione e formazione interna per la consapevolezza del rischio;
- Adozione di standard di sicurezza obbligatori e revisioni periodiche;
- Sperimentazione in ambienti protetti prima di ogni rilascio commerciale;
- Incentivazione di denunce e segnalazioni da parte dei lavoratori, senza rischio di ritorsioni.
Il caso Figure AI, per quanto grave, può rappresentare un'opportunità di miglioramento per tutto il settore, spingendo verso soluzioni più sicure dal punto di vista etico e operativo.
Sintesi e prospettive future
Siamo all’inizio di una nuova fase per la robotica e l’intelligenza artificiale. Il caso Gruendel contro Figure AI mette in luce come l’innovazione debba necessariamente confrontarsi con le esigenze di trasparenza, responsabilità e sicurezza.
In attesa degli sviluppi giudiziari, il dibattito sulla sicurezza dei robot IA è destinato ad aumentare: la consapevolezza collettiva e la domanda sociale di trasparenza potrebbero spingere aziende, legislatori e utenti verso un approccio più responsabile. Solo così sarà possibile trarre davvero vantaggio dalle enormi potenzialità dei robot umanoidi, senza correre rischi inaccettabili per l’incolumità delle persone e la sicurezza pubblica.