Loading...
Instagram avviserà i genitori se gli adolescenti cercano parole legate al suicidio
Editoriali

Instagram avviserà i genitori se gli adolescenti cercano parole legate al suicidio

Meta annuncia una nuova funzione di sicurezza su Instagram: i genitori riceveranno un avviso se i figli adolescenti cercano parole chiave legate al suicidio o all'autolesionismo.

Sommario

La nuova funzione di protezione

Meta ha annunciato un aggiornamento significativo delle funzionalità di sicurezza di Instagram, destinato a cambiare il modo in cui la piattaforma gestisce la protezione dei minori. D'ora in avanti, i genitori che hanno collegato il proprio account a quello dei figli adolescenti attraverso il sistema di supervisione parentale riceveranno una notifica quando i ragazzi effettuano ricerche contenenti parole chiave associate al suicidio, all'autolesionismo o ad altri contenuti potenzialmente pericolosi. La funzione si inserisce nel più ampio programma di strumenti per la famiglia lanciato da Meta negli ultimi due anni, ma rappresenta un salto qualitativo rispetto alle misure precedenti, che si limitavano a monitorare il tempo di utilizzo o a filtrare contenuti espliciti. La decisione arriva dopo anni di pressioni da parte di legislatori, associazioni di genitori e organizzazioni per la salute mentale, che hanno ripetutamente accusato le piattaforme social di non fare abbastanza per proteggere gli utenti più vulnerabili. Il tema è particolarmente sentito alla luce di episodi drammatici che hanno coinvolto giovani studenti, come il tentato suicidio di una studentessa che solo grazie a un intervento tempestivo è stata salvata.

Come funziona il sistema di notifica

Il meccanismo è stato progettato per bilanciare tempestività e discrezione. Quando un adolescente digita nella barra di ricerca di Instagram termini riconducibili a suicidio, autolesionismo o disturbi alimentari gravi, l'algoritmo della piattaforma attiva una doppia risposta. Al ragazzo viene mostrata immediatamente una schermata con risorse di aiuto, numeri di emergenza e contatti di linee di ascolto specializzate, come il Telefono Amico o il numero verde 800-274274 in Italia. Parallelamente, il genitore collegato riceve una notifica generica che lo informa dell'avvenuta ricerca di contenuti sensibili, senza rivelare nel dettaglio le parole esatte digitate. Meta ha precisato che il sistema non registra né archivia le ricerche specifiche, ma si limita a segnalare la categoria di rischio. La notifica include anche suggerimenti pratici su come affrontare la conversazione con il figlio, evitando reazioni che potrebbero risultare controproducenti. L'azienda ha collaborato con psicologi dell'età evolutiva e con organizzazioni come la National Alliance on Mental Illness per calibrare il linguaggio delle comunicazioni. Il sistema funziona esclusivamente per gli account di utenti sotto i 18 anni che abbiano attivato la supervisione parentale.

Le reazioni di esperti e associazioni

La risposta del mondo scientifico e delle associazioni è stata articolata. Da un lato, diversi esperti di salute mentale hanno accolto con favore l'iniziativa, definendola un passo nella giusta direzione. La Società Italiana di Psichiatria ha sottolineato come il coinvolgimento precoce dei genitori possa rappresentare un fattore protettivo cruciale nei percorsi di disagio adolescenziale. Dall'altro lato, non mancano le perplessità. Alcuni psicologi avvertono che una notifica mal gestita potrebbe spingere i ragazzi a cercare informazioni su piattaforme meno controllate, vanificando l'obiettivo della misura. Lo psichiatra Paolo Crepet, noto per le sue posizioni critiche, ha più volte evidenziato come la responsabilità genitoriale non possa essere delegata a un algoritmo. Le sue riflessioni sulla fragilità del rapporto tra famiglie e sistema educativo, approfondite ne La Critica di Crepet ai Genitori e al Sistema Educativo, restano un riferimento importante nel dibattito. Le associazioni per i diritti digitali, intanto, chiedono trasparenza sui criteri con cui l'algoritmo classifica le ricerche e sulle soglie che attivano le segnalazioni.

Il contesto normativo e la pressione politica

L'annuncio di Meta non nasce nel vuoto. Negli Stati Uniti, il Kids Online Safety Act è in fase avanzata di approvazione al Congresso e imporrebbe alle piattaforme obblighi stringenti nella protezione dei minori, inclusa la responsabilità diretta per i contenuti dannosi a cui i giovani utenti vengono esposti. In Europa, il Digital Services Act già prevede valutazioni d'impatto obbligatorie sui rischi per i minori, e la Commissione Europea ha aperto indagini formali su Meta per verificare l'adeguatezza delle misure adottate. In Italia, il dibattito si intreccia con la più ampia discussione sul ruolo delle famiglie nelle istituzioni educative, come dimostra la recente Riforma Scolastica: Genitori nel Consiglio Superiore della Pubblica Istruzione. Il Garante per l'Infanzia e l'Adolescenza ha chiesto a più riprese una normativa nazionale specifica sull'uso dei social da parte dei minori. Meta, consapevole del clima politico, sembra muoversi proattivamente per evitare regolamentazioni più invasive. La tempistica dell'annuncio, a ridosso delle audizioni parlamentari americane, non è sfuggita agli osservatori.

Tra tutela e privacy: il nodo irrisolto

Resta aperta la questione più delicata: dove finisce la protezione e dove inizia la sorveglianza. Il sistema di notifica funziona solo con la supervisione parentale attiva, il che significa che molti adolescenti, specialmente quelli con famiglie meno presenti o in contesti di disagio domestico, ne restano esclusi. Proprio i ragazzi più a rischio, paradossalmente, potrebbero non beneficiare della misura. C'è poi il tema della fiducia: diversi studi dimostrano che gli adolescenti che percepiscono un controllo eccessivo tendono a sviluppare strategie di elusione, creando account secondari o migrando verso piattaforme prive di filtri. Gli esperti di diritto digitale sollevano inoltre interrogativi sulla compatibilità del sistema con il GDPR, in particolare riguardo al trattamento di dati sensibili relativi alla salute di soggetti minorenni. Meta assicura che nessun dato personale viene condiviso con terzi e che le informazioni vengono elaborate localmente senza essere conservate. Il vero banco di prova, tuttavia, sarà l'efficacia concreta della misura nel ridurre i comportamenti a rischio, un risultato che richiederà tempo, dati e una valutazione indipendente per essere verificato.

Pubblicato il: 30 marzo 2026 alle ore 22:53

Domande frequenti

Come funziona la nuova funzione di notifica di Instagram per i genitori?

Quando un adolescente cerca su Instagram termini collegati a suicidio, autolesionismo o disturbi alimentari, il genitore collegato tramite supervisione parentale riceve una notifica generica. Al ragazzo vengono anche fornite risorse di aiuto e numeri di emergenza, ma non vengono condivisi dettagli specifici delle ricerche.

Quali sono i limiti della funzione di protezione rispetto alla privacy degli adolescenti?

Il sistema invia solo notifiche generiche senza dettagliare le parole cercate e non conserva i dati delle ricerche. Tuttavia, la funzione solleva dubbi sulla compatibilità con il GDPR e sulla possibilità che un controllo percepito come eccessivo porti i ragazzi a eludere la supervisione.

Chi può usufruire di questa funzione di notifica su Instagram?

La funzione è disponibile esclusivamente per gli adolescenti sotto i 18 anni che abbiano attivato la supervisione parentale collegando il proprio account a quello di un genitore. Gli adolescenti senza supervisione attiva o in contesti familiari meno presenti restano esclusi dalla misura.

Quali sono state le reazioni degli esperti e delle associazioni alla novità?

Molti esperti di salute mentale hanno accolto positivamente la funzione, considerandola un passo avanti nella prevenzione. Tuttavia, alcuni psicologi e associazioni per i diritti digitali hanno espresso preoccupazioni sulla gestione delle notifiche e sulla trasparenza dei criteri dell'algoritmo.

Come si inserisce questa novità di Instagram nel contesto normativo attuale?

La funzione risponde a pressioni normative, come il Kids Online Safety Act negli Stati Uniti e il Digital Services Act in Europa, che impongono standard più rigorosi per la protezione dei minori online. In Italia, il dibattito è attivo e il Garante per l'Infanzia ha richiesto una normativa specifica sull'uso dei social da parte dei minori.

Simona Alba

Articolo creato da

Simona Alba

Giornalista Pubblicista Simona Alba è una professionista dell’editoria, giornalista ed esperta in comunicazione con una solida specializzazione nella gestione di processi culturali e innovazione digitale. Laureata in Progettazione e gestione di eventi e imprese culturali a Firenze, ha proseguito il suo percorso accademico a Roma, presso l’Università La Sapienza, dove ha conseguito la laurea magistrale in Editoria e Giornalismo, focalizzandosi sull'analisi del panorama informativo contemporaneo e sul giornalismo d’inchiesta. Attualmente redattrice presso Edunews24, dove sviluppa contenuti focalizzati su istruzione, formazione, ricerca e nuove tecnologie. Nella sua attività professionale, coniuga il rigore dell'approfondimento giornalistico con le più avanzate strategie di analisi SEO e dinamiche del web, con l'obiettivo di rendere la divulgazione scientifica e culturale uno strumento accessibile per lo sviluppo dello spirito critico. Nel corso della sua carriera ha maturato esperienza all'interno di redazioni giornalistiche, distinguendosi per la capacità di interpretare la cultura come motore di cambiamento sociale e organizzativo.

Articoli Correlati