{/* Extracted from Header.astro - Use appropriate classes/styles if animations needed */}

Deepfake, X prova a correre ai ripari: arriva il blocco alla modifica delle foto con Grok

Il social di Elon Musk introduce un interruttore per impedire a terzi di manipolare le immagini degli utenti tramite il chatbot. Ma lo strumento presenta limiti evidenti e rilancia il dibattito sull'educazione digitale nelle scuole

* La nuova funzione di X contro i deepfake * Come funziona il blocco e quali sono i suoi limiti * Deepfake e scuola: una questione che non può più aspettare * Il quadro più ampio: intelligenza artificiale e responsabilità delle piattaforme

La nuova funzione di X contro i deepfake {#la-nuova-funzione-di-x-contro-i-deepfake}

Un interruttore. Così, almeno nelle intenzioni, X pensa di poter arginare uno dei fenomeni più insidiosi dell'era digitale. La piattaforma di Elon Musk ha introdotto nella propria app per iOS una nuova opzione che consente agli utenti di impedire a terzi la modifica delle proprie immagini tramite Grok, il chatbot di intelligenza artificiale integrato nel social.

La mossa arriva in un momento in cui il tema dei deepfake è al centro del dibattito pubblico a livello globale. Dalle manipolazioni a sfondo politico a quelle che colpiscono persone comuni — spesso minorenni —, la generazione di contenuti falsi attraverso strumenti di IA rappresenta una minaccia concreta alla reputazione, alla dignità e, in molti casi, alla sicurezza delle persone.

Stando a quanto emerge dalle prime analisi della funzionalità, però, entusiasmarsi sarebbe prematuro.

Come funziona il blocco e quali sono i suoi limiti {#come-funziona-il-blocco-e-quali-sono-i-suoi-limiti}

Il meccanismo è relativamente semplice: attivando l'opzione dalle impostazioni dell'app, l'utente segnala alla piattaforma la volontà di non vedere le proprie foto elaborate dal chatbot Grok. In pratica, il sistema dovrebbe impedire che altri utenti invochino l'intelligenza artificiale per alterare immagini già pubblicate.

Fin qui, tutto ragionevole. I problemi, tuttavia, sono evidenti.

Innanzitutto, il blocco agisce solo su menzioni specifiche del chatbot Grok. Chi volesse manipolare un'immagine scaricandola e utilizzando uno qualsiasi degli innumerevoli strumenti di generazione disponibili online — da Midjourney a Stable Diffusion, passando per decine di app gratuite — non incontrerebbe alcun ostacolo. Il perimetro di protezione, insomma, è circoscritto all'ecosistema interno della piattaforma.

C'è di più. La funzione, al momento, non è disponibile nella versione web di X. Un limite non trascurabile, considerato che una fetta significativa degli utenti accede al social da desktop, soprattutto in ambito professionale e istituzionale.

Altri elementi critici:

* Non è chiaro come il sistema gestisca le immagini già elaborate prima dell'attivazione del blocco * L'opzione richiede un'azione consapevole dell'utente, escludendo chi non conosce la funzione o non ha familiarità con le impostazioni della privacy * La protezione non si estende a immagini condivise su altre piattaforme o salvate da terzi

Uno strumento, dunque, dall'efficacia limitata. Un cerotto su una ferita che richiederebbe ben altro intervento.

Deepfake e scuola: una questione che non può più aspettare {#deepfake-e-scuola-una-questione-che-non-può-più-aspettare}

Se le piattaforme faticano a offrire soluzioni tecniche realmente efficaci, il fronte dell'educazione digitale diventa cruciale. E il mondo della scuola italiana non può chiamarsi fuori.

I casi di cronaca degli ultimi anni parlano chiaro: immagini di compagne di classe manipolate con app di _deepfake_, diffuse nelle chat di gruppo. Docenti il cui volto finisce sovrapposto a corpi altrui in video virali. Non si tratta di episodi isolati, ma di un fenomeno strutturale che investe le comunità scolastiche con frequenza crescente.

Il Piano Nazionale Scuola Digitale e le successive integrazioni normative hanno posto le basi per un'alfabetizzazione alle tecnologie, ma sul tema specifico dei contenuti generati dall'intelligenza artificiale il cammino resta lungo. Servirebbero percorsi formativi dedicati — per studenti e per docenti — capaci di sviluppare un pensiero critico rispetto ai contenuti visuali, insegnando a riconoscere le manipolazioni e, soprattutto, a comprenderne le conseguenze legali e umane.

La sicurezza digitale, d'altronde, non è più una competenza accessoria. È un prerequisito per la cittadinanza consapevole.

Il quadro più ampio: intelligenza artificiale e responsabilità delle piattaforme {#il-quadro-più-ampio-intelligenza-artificiale-e-responsabilità-delle-piattaforme}

L'iniziativa di X si inserisce in un contesto in cui le grandi aziende tecnologiche cercano di bilanciare innovazione e tutela degli utenti, spesso con risultati discutibili. L'intelligenza artificiale generativa avanza a ritmi vertiginosi — come dimostrano gli sviluppi in settori molto diversi tra loro, dall'impiego dell'IA di Google per la manutenzione stradale fino alle ambizioni nel quantum computing di Microsoft — e le policy di moderazione arrancano.

L'AI Act europeo, entrato progressivamente in vigore, impone obblighi di trasparenza per i contenuti generati artificialmente e prevede restrizioni specifiche per i sistemi ad alto rischio. L'Italia, attraverso l'Autorità Garante per la protezione dei dati personali, ha già mostrato in passato una certa proattività — si pensi al temporaneo blocco di ChatGPT nel 2023. La domanda, ora, è se strumenti come il chatbot Grok integrato in un social network da centinaia di milioni di utenti possano continuare a operare con meccanismi di opt-out così fragili.

Perché la questione resta aperta, e va ben oltre un singolo interruttore nelle impostazioni di un'app. Riguarda il modello stesso con cui le piattaforme rendono accessibili tecnologie potenzialmente dannose: prima si distribuisce lo strumento a tutti, poi — solo quando le polemiche montano — si offre una via d'uscita parziale a chi sa dove cercarla.

Per le scuole, per le famiglie, per chiunque abbia a cuore la tutela dei più giovani in rete, il messaggio è uno solo: la tecnologia da sola non basta. E affidarsi alla buona volontà delle piattaforme, ancora meno.

Pubblicato il: 12 marzo 2026 alle ore 10:30