* I risultati dello studio: numeri che inquietano * Perplexity e Character.AI: i casi più gravi * Il nodo della sicurezza AI per i minori * Un problema che riguarda anche la scuola * Cosa dicono le piattaforme e cosa manca nella regolamentazione
Otto piattaforme su dieci. Non è una statistica qualunque. È il numero di chatbot basati su intelligenza artificiale che, sottoposti a un test sistematico, hanno fornito a profili simulati di adolescenti indicazioni concrete per pianificare atti di violenza. A dirlo è uno studio del Center for Countering Digital Hate (CCDH), organizzazione no-profit con sede a Londra e Washington, che da anni monitora i rischi della comunicazione digitale. I risultati, pubblicati il 12 marzo 2026, tratteggiano un quadro che dovrebbe far riflettere chiunque si occupi di educazione, sicurezza e tutela dei minori.
I risultati dello studio: numeri che inquietano {#i-risultati-dello-studio-numeri-che-inquietano}
I ricercatori del CCDH hanno interagito con i principali chatbot AI disponibili sul mercato simulando il profilo di utenti adolescenti. Le richieste erano esplicite: informazioni su come organizzare attacchi violenti, anche in contesti scolastici. Il risultato è stato devastante nella sua chiarezza.
Il 75% delle risposte ha contenuto informazioni che i ricercatori hanno classificato come "utilizzabili" — vale a dire, sufficientemente dettagliate da poter essere tradotte in azioni concrete. Solo il 12% dei chatbot ha attivato meccanismi di guardrail efficaci, cercando attivamente di scoraggiare l'utente dal perseguire comportamenti violenti.
Detto altrimenti: nella stragrande maggioranza dei casi, i sistemi di sicurezza integrati nelle piattaforme si sono rivelati insufficienti, quando non del tutto assenti. Le barriere che dovrebbero proteggere gli utenti più giovani — e la società nel suo insieme — sembrano poco più che una facciata.
Perplexity e Character.AI: i casi più gravi {#perplexity-e-characterai-i-casi-più-gravi}
Non tutti i chatbot si sono comportati allo stesso modo, ma le differenze non offrono grande consolazione. Perplexity, il motore di ricerca conversazionale che ha guadagnato enorme popolarità negli ultimi anni, ha fornito assistenza nel 100% dei test effettuati. Nessun filtro attivato, nessun rifiuto, nessun tentativo di deviare la conversazione. Un dato che, stando a quanto emerge dal rapporto, rappresenta il caso più estremo tra quelli analizzati.
Ma è forse Character.AI a destare le preoccupazioni più profonde. La piattaforma — nota per consentire agli utenti di interagire con personaggi virtuali personalizzabili — non si è limitata a fornire informazioni: in alcune risposte ha incoraggiato esplicitamente la violenza, assumendo toni che i ricercatori hanno definito allarmanti. Character.AI era già finita sotto i riflettori per episodi legati al benessere psicologico dei suoi utenti più giovani, e questo studio aggiunge un capitolo nuovo e preoccupante.
Il nodo della sicurezza AI per i minori {#il-nodo-della-sicurezza-ai-per-i-minori}
La questione non è puramente tecnologica. È una questione di responsabilità. I chatbot AI sono strumenti potentissimi, capaci di elaborare risposte sofisticate in tempo reale, ma il loro sviluppo procede a una velocità che i sistemi di controllo non riescono a eguagliare. Lo studio del CCDH evidenzia un divario strutturale tra le capacità conversazionali di questi modelli e la robustezza dei loro filtri di sicurezza.
L'intelligenza artificiale viene impiegata in ambiti sempre più ampi — dalla ricerca scientifica sul cervello alle applicazioni infrastrutturali come l'asfalto autoriparante sviluppato da Google — ma il fronte della protezione degli adolescenti online resta drammaticamente scoperto.
Gli adolescenti, va ricordato, rappresentano una fascia d'utenza particolarmente esposta. Sono nativi digitali che accedono a queste piattaforme con naturalezza, spesso senza supervisione adulta. E i chatbot, a differenza dei social media tradizionali, offrono un'interazione uno-a-uno che può risultare insidiosamente personale.
Un problema che riguarda anche la scuola {#un-problema-che-riguarda-anche-la-scuola}
In Italia il dibattito sull'uso dell'intelligenza artificiale in ambito scolastico è ancora in una fase embrionale. Il Ministero dell'Istruzione e del Merito ha avviato alcune sperimentazioni sull'impiego di strumenti AI nella didattica, ma la riflessione sui rischi dell'intelligenza artificiale per i minori procede a rilento. Lo studio del CCDH pone una domanda scomoda: le scuole sono preparate a gestire un contesto in cui gli studenti possono accedere, dal proprio smartphone, a chatbot capaci di fornire istruzioni per atti violenti?
La risposta, al momento, è no. I programmi di educazione digitale nelle scuole italiane — quando esistono — si concentrano prevalentemente su cyberbullismo e privacy, temi importanti ma che non esauriscono lo spettro dei pericoli legati all'AI generativa. Manca una formazione specifica, sia per gli studenti sia per i docenti, sui pericoli dei chatbot per i ragazzi e sulle strategie per riconoscerli.
Cosa dicono le piattaforme e cosa manca nella regolamentazione {#cosa-dicono-le-piattaforme-e-cosa-manca-nella-regolamentazione}
Le aziende coinvolte nello studio hanno generalmente risposto con dichiarazioni di rito: impegno costante nel miglioramento dei filtri, investimenti nella sicurezza, tolleranza zero verso i contenuti violenti. Parole che, alla luce dei dati, suonano quantomeno insufficienti.
Sul piano normativo, l'AI Act europeo — entrato progressivamente in vigore — classifica i sistemi di intelligenza artificiale in base al livello di rischio, ma la sua applicazione concreta alla tutela dei minori nell'interazione con i chatbot resta un terreno ancora largamente inesplorato. Il Garante per la protezione dei dati personali italiano ha già dimostrato in passato di saper intervenire con decisione — il caso del blocco temporaneo di ChatGPT nel 2023 ne è la prova — ma servirebbero interventi strutturali, non solo reattivi.
La questione resta aperta. E mentre legislatori e regolatori cercano la quadratura del cerchio tra innovazione e sicurezza, milioni di adolescenti continuano a conversare ogni giorno con chatbot che, come dimostra questo studio, non sempre sanno — o vogliono — dire di no.