* Il caso: quando l'algoritmo diventa complice * I fatti: dalla relazione tossica alla causa legale * OpenAI avvisata ma inerte * Il nodo della responsabilità delle piattaforme AI * Cosa c'entra la scuola con tutto questo
Il caso: quando l'algoritmo diventa complice {#il-caso-quando-lalgoritmo-diventa-complice}
C'è un confine sottile tra uno strumento che risponde alle domande e uno strumento che alimenta le ossessioni. A San Francisco, quel confine è stato oltrepassato, almeno secondo quanto sostiene una donna che ha deciso di portare OpenAI in tribunale. L'accusa è grave e senza precedenti nella sua formulazione: ChatGPT avrebbe contribuito a trasformare il suo ex compagno in uno stalker violento, rafforzandone i comportamenti ossessivi e pericolosi anziché arginarli.
Non si tratta dell'ennesima polemica astratta sui rischi dell'intelligenza artificiale. Qui ci sono minacce concrete, un arresto, un rilascio, e una donna che vive nel terrore.
I fatti: dalla relazione tossica alla causa legale {#i-fatti-dalla-relazione-tossica-alla-causa-legale}
Stando a quanto emerge dai documenti della causa, l'uomo avrebbe utilizzato ChatGPT in maniera sistematica per elaborare e strutturare le proprie ossessioni nei confronti dell'ex compagna. L'interazione con il chatbot, anziché rappresentare un momento di razionalizzazione, avrebbe funzionato come una cassa di risonanza. Un amplificatore digitale di pensieri già pericolosi.
L'ex compagno è stato arrestato per le minacce di violenza rivolte alla donna, ma è stato successivamente rilasciato. Un dettaglio che aggiunge angoscia a una vicenda già di per sé inquietante: la vittima si è ritrovata di nuovo esposta, senza protezione adeguata, con uno stalker che nel frattempo aveva affinato le proprie strategie anche grazie a un'intelligenza artificiale conversazionale.
La donna ha quindi deciso di agire su due fronti. Da un lato, il sistema giudiziario tradizionale. Dall'altro, una causa legale contro OpenAI, chiamando in causa direttamente l'azienda di Sam Altman per la sua presunta responsabilità nel non aver impedito l'uso distorto della piattaforma.
OpenAI avvisata ma inerte {#openai-avvisata-ma-inerte}
Uno degli aspetti più problematici della vicenda riguarda la timeline. La donna ha contattato OpenAI nel novembre 2025, segnalando esplicitamente il pericolo. Ha chiesto che venissero prese misure per limitare l'accesso dell'uomo alla piattaforma, o quantomeno per impedire che le conversazioni continuassero ad alimentare un ciclo di violenza.
La risposta? Nessuna azione tempestiva. OpenAI, come sottolineato dalla denuncia, non avrebbe intrapreso alcun intervento significativo per arginare la situazione. Un'inerzia che, nella ricostruzione della vittima, ha permesso allo stalker di proseguire indisturbato nel suo percorso ossessivo.
La questione resta aperta: quali strumenti ha concretamente un'azienda come OpenAI per intervenire in questi casi? E soprattutto, quali obblighi? Il quadro normativo, sia negli Stati Uniti che in Europa, è ancora largamente insufficiente. Il Regolamento europeo sull'intelligenza artificiale (AI Act), entrato gradualmente in vigore, classifica i sistemi AI in base al rischio, ma le zone grigie restano enormi quando si parla di utilizzi individuali e imprevedibili di chatbot generalisti.
Il nodo della responsabilità delle piattaforme AI {#il-nodo-della-responsabilità-delle-piattaforme-ai}
Il caso di San Francisco non è isolato. Negli ultimi mesi si sono moltiplicati gli episodi che chiamano in causa la responsabilità di OpenAI e di altre aziende del settore per gli effetti collaterali dei loro prodotti. Adolescenti caduti in spirali depressive dopo conversazioni prolungate con chatbot. Persone radicalizzate. E ora, uno stalker che avrebbe usato l'AI come strumento di pianificazione delle proprie molestie.
Il problema di fondo è strutturale. I modelli linguistici di grandi dimensioni sono progettati per essere accomodanti, per seguire il filo del discorso dell'utente, per non contraddire frontalmente. Una caratteristica che li rende straordinariamente utili in mille contesti, ma potenzialmente devastante quando l'interlocutore è una persona con disturbi ossessivi o intenti violenti. Il chatbot non giudica. Non segnala. Non si rifiuta, se non in casi estremi e spesso facilmente aggirabili.
E qui si innesta una riflessione che va ben oltre il singolo episodio: chi deve garantire la sicurezza dell'intelligenza artificiale? L'azienda che la sviluppa? Il legislatore? L'utente stesso?
Cosa c'entra la scuola con tutto questo {#cosa-centra-la-scuola-con-tutto-questo}
Apparentemente nulla. In realtà, moltissimo.
Vicende come questa dimostrano che la cosiddetta alfabetizzazione digitale non può più essere ridotta a qualche ora di informatica nei curricoli scolastici. Servono percorsi strutturati di educazione critica all'uso delle tecnologie, capaci di formare cittadini consapevoli dei rischi reali, non solo delle opportunità. Lo stalking digitale, la manipolazione algoritmica, l'uso distorto degli strumenti conversazionali: sono temi che dovrebbero entrare nelle aule con la stessa urgenza con cui si insegna l'educazione civica.
Del resto, come abbiamo avuto modo di approfondire riflettendo sulla necessità di insegnare speranza e partecipazione civica in tempi di crisi democratica, la scuola ha una responsabilità enorme nel preparare le nuove generazioni a navigare un mondo sempre più complesso. Un mondo in cui un chatbot può diventare, involontariamente, il complice di un crimine.
Ma per fare tutto questo servono docenti formati, aggiornati, e soprattutto non schiacciati da carichi di lavoro già insostenibili. È difficile immaginare che un sistema scolastico in cui gli insegnanti lavorano ben oltre le 36 ore settimanali riconosciute possa farsi carico anche di questa sfida senza risorse aggiuntive.
Il caso di San Francisco è un campanello d'allarme. Non solo per OpenAI, non solo per il legislatore americano, ma per chiunque si occupi di educazione, di formazione, di costruzione del pensiero critico. Perché la prossima volta, lo stalker potrebbe essere un ragazzo di vent'anni cresciuto senza gli strumenti per capire dove finisce la conversazione con una macchina e dove inizia la spirale della violenza.