Sommario
* La sparatoria alla Florida State University * Il ruolo di ChatGPT nella pianificazione dell'attacco * L'indagine penale su OpenAI * La difesa di OpenAI e il nodo delle informazioni pubbliche * Le responsabilità degli esseri umani dietro il chatbot * Un precedente che potrebbe ridefinire la regolamentazione dell'AI
La sparatoria alla Florida State University
Nell'aprile 2025 il campus della Florida State University a Tallahassee è diventato teatro di una tragedia che ha scosso l'intero Paese. Phoenix Ikner, studente ventunenne, è entrato nell'ateneo armato con la pistola della madre, una vice sceriffo, con l'intenzione dichiarata di uccidere. Il bilancio è stato devastante: due persone hanno perso la vita, altre sono rimaste ferite. Ikner è stato fermato e attualmente si trova in carcere con le accuse di omicidio e tentato omicidio. Ma questa vicenda non si esaurisce nella cronaca di una sparatoria in un campus americano, fenomeno tragicamente ricorrente negli Stati Uniti. C'è un elemento inedito che rende questo caso diverso da tutti i precedenti e che ha attirato l'attenzione dell'opinione pubblica internazionale. L'arma fisica non è stata l'unico strumento utilizzato nella preparazione dell'attacco. Secondo gli inquirenti, Ikner avrebbe sfruttato ChatGPT, il chatbot di intelligenza artificiale sviluppato da OpenAI, per raccogliere informazioni utili a pianificare la strage. Un dettaglio che ha trasformato un caso di cronaca nera in un potenziale spartiacque nella storia della regolamentazione dell'intelligenza artificiale.
Il ruolo di ChatGPT nella pianificazione dell'attacco
Le indagini hanno rivelato un quadro inquietante. Nei giorni e nelle ore precedenti la sparatoria, Phoenix Ikner avrebbe intrattenuto diverse conversazioni con ChatGPT orientate alla preparazione dell'attacco. Le domande poste al chatbot erano precise e mirate. Il giovane ha chiesto informazioni sulla potenza di un'arma da fuoco a breve distanza, ha domandato consigli su quali munizioni fossero più efficaci per il tipo di azione che intendeva compiere. Non si è fermato agli aspetti tecnici legati all'armamento. Il giorno stesso della strage, Ikner ha interrogato il chatbot su come il Paese avrebbe reagito alla sua azione, quasi cercando una validazione o una previsione dell'impatto mediatico del gesto. Ha chiesto inoltre quale fosse l'ora di punta nel campus dell'università, un'informazione tattica che avrebbe massimizzato il numero di potenziali vittime. Questo schema di interazione suggerisce un utilizzo deliberato e sistematico dello strumento AI come ausilio alla pianificazione. Non una ricerca casuale, ma un percorso strutturato verso l'obiettivo finale. La sequenza delle domande rivela una progressione logica che va dalla preparazione tecnica alla valutazione delle conseguenze, passando per la scelta strategica del momento più propizio per colpire.
L'indagine penale su OpenAI
Il procuratore generale dello stato della Florida, James Uthmeier, ha compiuto un passo senza precedenti annunciando l'apertura di un'indagine penale su OpenAI e sul suo prodotto di punta. Non è solo Ikner a trovarsi sotto la lente della giustizia: per la prima volta un'azienda di intelligenza artificiale viene formalmente indagata in relazione a un crimine violento. L'obiettivo dichiarato dell'indagine è stabilire se esista una responsabilità degli esseri umani che stanno dietro a ChatGPT, ovvero i programmatori, i dirigenti e i responsabili delle policy di sicurezza di OpenAI. La domanda centrale è diretta: i filtri e le protezioni implementati nel sistema erano sufficienti a impedire che il chatbot diventasse uno strumento di supporto per la pianificazione di un atto violento? Uthmeier intende verificare se OpenAI abbia rispettato gli standard di sicurezza ragionevolmente esigibili, se i sistemi di moderazione fossero adeguati e se l'azienda fosse a conoscenza di vulnerabilità nei propri filtri senza intervenire. L'indagine potrebbe aprire un fronte giudiziario completamente nuovo, con implicazioni che vanno ben oltre il singolo caso e che potrebbero ridefinire il rapporto tra tecnologia, responsabilità legale e sicurezza pubblica negli Stati Uniti e nel mondo.
La difesa di OpenAI e il nodo delle informazioni pubbliche
OpenAI ha risposto alle accuse con una linea difensiva chiara e prevedibile. L'azienda ha sottolineato che ChatGPT ha fornito risposte basate su informazioni ampiamente disponibili su Internet attraverso fonti pubbliche. La potenza di un'arma da fuoco, le caratteristiche delle munizioni, gli orari di affluenza in un campus universitario: sono tutti dati reperibili con una semplice ricerca su Google, in manuali tecnici, su forum specializzati o persino su Wikipedia. Secondo questa logica, il chatbot non avrebbe fatto altro che aggregare e restituire conoscenze già accessibili a chiunque. La posizione di OpenAI solleva un interrogativo legittimo: si può ritenere responsabile uno strumento che fornisce informazioni già di dominio pubblico? Se un bibliotecario indica a un utente il libro giusto per trovare determinate informazioni, diventa complice dell'uso che ne verrà fatto? L'analogia però presenta limiti evidenti. A differenza di una biblioteca o di un motore di ricerca tradizionale, ChatGPT è un sistema conversazionale che elabora risposte personalizzate, le contestualizza e le adatta alle richieste specifiche dell'utente. La capacità di sintesi e di adattamento al contesto rende il chatbot qualitativamente diverso da una semplice ricerca online, e proprio questa differenza potrebbe risultare decisiva sul piano giuridico.
Le responsabilità degli esseri umani dietro il chatbot
Il cuore dell'indagine del procuratore Uthmeier riguarda un principio fondamentale: dietro ogni algoritmo ci sono decisioni umane. Qualcuno ha progettato i filtri di sicurezza di ChatGPT, qualcuno ha stabilito quali domande dovessero ricevere risposta e quali no, qualcuno ha definito le soglie oltre le quali il sistema avrebbe dovuto rifiutarsi di collaborare. La questione non è se l'intelligenza artificiale sia "colpevole" in senso proprio, concetto giuridicamente privo di significato per una macchina, ma se le persone responsabili delle scelte progettuali abbiano agito con la dovuta diligenza. OpenAI dispone di sistemi di content moderation pensati per bloccare richieste pericolose. Eppure, nel caso Ikner, quei filtri non hanno impedito al chatbot di rispondere a domande che, lette in sequenza, configuravano chiaramente la preparazione di un attacco. Singolarmente, ogni domanda poteva apparire innocua. Ma l'analisi contestuale dell'intera conversazione avrebbe dovuto attivare un allarme? L'azienda avrebbe dovuto implementare sistemi capaci di riconoscere pattern sospetti nelle sequenze di domande? Sono interrogativi tecnici e giuridici a cui l'indagine dovrà dare risposta, valutando lo stato dell'arte della tecnologia e ciò che era ragionevolmente prevedibile al momento dei fatti.
Un precedente che potrebbe ridefinire la regolamentazione dell'AI
Qualunque sia l'esito dell'indagine della Florida, il caso Ikner-ChatGPT rappresenta già un punto di svolta nel dibattito sulla responsabilità dell'intelligenza artificiale. Per la prima volta, un'azienda AI viene trattata non come semplice fornitore di tecnologia neutra, ma come potenziale attore in una catena causale che ha portato a un crimine violento. Le implicazioni sono enormi. Se l'indagine dovesse accertare responsabilità penali in capo a OpenAI o ai suoi dirigenti, si creerebbe un precedente capace di trasformare radicalmente il settore. Ogni azienda che sviluppa chatbot o sistemi di AI generativa dovrebbe ripensare i propri protocolli di sicurezza, investire massicciamente in sistemi di rilevamento delle intenzioni malevole e probabilmente accettare forme di sorveglianza e certificazione esterna oggi inesistenti. D'altra parte, un'archiviazione potrebbe consolidare l'idea che gli strumenti AI godano di una sorta di immunità derivante dalla natura pubblica delle informazioni che elaborano. Il Section 230 del _Communications Decency Act_, che protegge le piattaforme online dalla responsabilità per i contenuti generati dagli utenti, potrebbe entrare nel dibattito, sebbene la sua applicabilità ai chatbot sia tutt'altro che scontata. Il caso della Florida ci pone davanti a una realtà che non possiamo più ignorare: la tecnologia evolve più rapidamente delle leggi che dovrebbero regolarla, e il prezzo di questo ritardo, talvolta, si misura in vite umane.