- Le nuove restrizioni di Meta per i minorenni
- Come funzionano i filtri automatici
- La modalità contenuti limitati
- Il ruolo dei genitori nel nuovo sistema
- Un contesto più ampio: la sicurezza digitale dei minori in Italia
- Domande frequenti
Le nuove restrizioni di Meta per i minorenni
Meta ha deciso di alzare il livello di protezione per gli adolescenti che utilizzano Instagram, estendendo anche all'Italia un pacchetto di misure pensate per limitare l'esposizione dei più giovani a contenuti potenzialmente dannosi. L'annuncio, arrivato nelle scorse ore dalla sede del colosso di Menlo Park, riguarda tutti gli account riconducibili a utenti sotto i 18 anni.
Non si tratta di un ritocco cosmetico. Le nuove impostazioni intervengono su più fronti: dalla visibilità di linguaggio volgare e contenuti sessualmente espliciti fino alle attività classificate come pericolose, passando per un sistema di filtraggio proattivo delle ricerche. Ogni account teen verrà automaticamente configurato con queste restrizioni attive, senza che il ragazzo debba, o possa, intervenire autonomamente.
La mossa si inserisce in un trend globale che vede le grandi piattaforme digitali sempre più sotto pressione, tanto da parte dei legislatori quanto dell'opinione pubblica, sul tema della sicurezza dei minori online.
Come funzionano i filtri automatici
Il cuore dell'aggiornamento è un sistema tecnologico che agisce in maniera preventiva. La piattaforma non si limita a reagire alle segnalazioni: blocca proattivamente account e termini di ricerca ritenuti non idonei per un pubblico di minorenni.
In pratica, se un adolescente cerca determinate parole chiave associate a contenuti violenti, autolesionistici o sessualmente espliciti, Instagram interviene prima ancora che i risultati vengano mostrati. Lo stesso meccanismo vale per i profili: account che pubblicano regolarmente materiale non adatto ai più giovani verranno nascosti dai feed e dalle sezioni Esplora degli utenti under 18.
Stando a quanto emerge dalle prime informazioni disponibili, le impostazioni di visibilità sono preconfigurate al massimo livello di protezione. Un approccio che ribalta la logica precedente, dove era l'utente a dover cercare e attivare manualmente le restrizioni.
La modalità contenuti limitati
Tra le novità più significative c'è l'introduzione della cosiddetta modalità "contenuti limitati", una sorta di scudo aggiuntivo che restringe ulteriormente la tipologia di post, reel e storie visualizzabili dagli adolescenti.
Questa funzione, attivata di default per tutti gli account teen, riduce drasticamente la probabilità che un minorenne si imbatta in materiale inappropriato durante la navigazione quotidiana. Non è chiaro, al momento, se la modalità agisca anche sui messaggi diretti o si limiti ai contenuti pubblici del feed.
È un passo avanti rispetto alle misure adottate in passato, spesso criticate come insufficienti da associazioni di tutela dell'infanzia e da diversi governi europei. Il tema della protezione dei più giovani sui social network, del resto, è al centro del dibattito pubblico italiano da anni, e si intreccia con questioni più ampie legate alla sicurezza digitale, come quelle emerse nei casi di attacco informatico in Italia o di diffusione di spyware attraverso le app di messaggistica.
Il ruolo dei genitori nel nuovo sistema
Un elemento centrale del nuovo framework riguarda il controllo genitoriale. Le restrizioni applicate agli account dei teenager non possono essere rimosse dall'adolescente in autonomia: serve l'approvazione esplicita di un genitore o tutore legale.
Questo significa che un ragazzo di 15 anni che volesse, ad esempio, disattivare i filtri sul linguaggio volgare o accedere a contenuti altrimenti bloccati, dovrà ottenere il via libera da un adulto attraverso il sistema di parental control integrato nella piattaforma. Una scelta che rafforza il ruolo della famiglia nel governare l'esperienza digitale dei figli, almeno in teoria.
Resta da capire quanto il meccanismo sarà efficace nella pratica. I ragazzi, si sa, sono spesso più abili dei genitori nel navigare le pieghe della tecnologia. E la questione dell'età dichiarata al momento dell'iscrizione, tallone d'Achille di qualsiasi sistema di verifica, continua a rappresentare un nodo irrisolto.
Tuttavia, il segnale è chiaro: Meta sta cercando di dimostrare ai regolatori, soprattutto quelli europei, di poter autoregolamentarsi prima che siano le istituzioni a imporre obblighi ancora più stringenti.
Un contesto più ampio: la sicurezza digitale dei minori in Italia
L'aggiornamento arriva in un momento in cui l'Italia sta affrontando con crescente attenzione il rapporto tra adolescenti e mondo digitale. Il Garante per la protezione dei dati personali ha più volte richiamato le piattaforme social alla responsabilità, e il dibattito parlamentare sulla regolamentazione dell'accesso dei minori ai social network è tutt'altro che sopito.
Secondo i dati più recenti dell'ISTAT, oltre il 90% degli adolescenti italiani tra i 14 e i 17 anni utilizza quotidianamente almeno un social network. Instagram, insieme a TikTok, resta tra le piattaforme più frequentate da questa fascia d'età. Numeri che rendono qualsiasi intervento sulla sicurezza particolarmente rilevante.
Le nuove misure di Meta si affiancano al quadro normativo europeo definito dal Digital Services Act (DSA), che impone alle grandi piattaforme obblighi specifici nella protezione dei minori, tra cui la trasparenza degli algoritmi e il divieto di profilazione pubblicitaria basata sui dati degli under 18.
Se queste protezioni basteranno a cambiare davvero l'esperienza quotidiana dei teenager italiani su Instagram, lo diranno i prossimi mesi. Quel che è certo è che il tempo delle piattaforme prive di regole per i più giovani sembra definitivamente tramontato.