Loading...
Deepfake, X prova a correre ai ripari: arriva il blocco alla modifica delle foto con Grok
Tecnologia

Deepfake, X prova a correre ai ripari: arriva il blocco alla modifica delle foto con Grok

Disponibile in formato audio

Il social di Elon Musk introduce un interruttore per impedire a terzi di manipolare le immagini degli utenti tramite il chatbot. Ma lo strumento presenta limiti evidenti e rilancia il dibattito sull'educazione digitale nelle scuole

La nuova funzione di X contro i deepfake

Un interruttore. Così, almeno nelle intenzioni, X pensa di poter arginare uno dei fenomeni più insidiosi dell'era digitale. La piattaforma di Elon Musk ha introdotto nella propria app per iOS una nuova opzione che consente agli utenti di impedire a terzi la modifica delle proprie immagini tramite Grok, il chatbot di intelligenza artificiale integrato nel social.

La mossa arriva in un momento in cui il tema dei deepfake è al centro del dibattito pubblico a livello globale. Dalle manipolazioni a sfondo politico a quelle che colpiscono persone comuni — spesso minorenni —, la generazione di contenuti falsi attraverso strumenti di IA rappresenta una minaccia concreta alla reputazione, alla dignità e, in molti casi, alla sicurezza delle persone.

Stando a quanto emerge dalle prime analisi della funzionalità, però, entusiasmarsi sarebbe prematuro.

Come funziona il blocco e quali sono i suoi limiti

Il meccanismo è relativamente semplice: attivando l'opzione dalle impostazioni dell'app, l'utente segnala alla piattaforma la volontà di non vedere le proprie foto elaborate dal chatbot Grok. In pratica, il sistema dovrebbe impedire che altri utenti invochino l'intelligenza artificiale per alterare immagini già pubblicate.

Fin qui, tutto ragionevole. I problemi, tuttavia, sono evidenti.

Innanzitutto, il blocco agisce solo su menzioni specifiche del chatbot Grok. Chi volesse manipolare un'immagine scaricandola e utilizzando uno qualsiasi degli innumerevoli strumenti di generazione disponibili online — da Midjourney a Stable Diffusion, passando per decine di app gratuite — non incontrerebbe alcun ostacolo. Il perimetro di protezione, insomma, è circoscritto all'ecosistema interno della piattaforma.

C'è di più. La funzione, al momento, non è disponibile nella versione web di X. Un limite non trascurabile, considerato che una fetta significativa degli utenti accede al social da desktop, soprattutto in ambito professionale e istituzionale.

Altri elementi critici:

  • Non è chiaro come il sistema gestisca le immagini già elaborate prima dell'attivazione del blocco
  • L'opzione richiede un'azione consapevole dell'utente, escludendo chi non conosce la funzione o non ha familiarità con le impostazioni della privacy
  • La protezione non si estende a immagini condivise su altre piattaforme o salvate da terzi

Uno strumento, dunque, dall'efficacia limitata. Un cerotto su una ferita che richiederebbe ben altro intervento.

Deepfake e scuola: una questione che non può più aspettare

Se le piattaforme faticano a offrire soluzioni tecniche realmente efficaci, il fronte dell'educazione digitale diventa cruciale. E il mondo della scuola italiana non può chiamarsi fuori.

I casi di cronaca degli ultimi anni parlano chiaro: immagini di compagne di classe manipolate con app di deepfake, diffuse nelle chat di gruppo. Docenti il cui volto finisce sovrapposto a corpi altrui in video virali. Non si tratta di episodi isolati, ma di un fenomeno strutturale che investe le comunità scolastiche con frequenza crescente.

Il Piano Nazionale Scuola Digitale e le successive integrazioni normative hanno posto le basi per un'alfabetizzazione alle tecnologie, ma sul tema specifico dei contenuti generati dall'intelligenza artificiale il cammino resta lungo. Servirebbero percorsi formativi dedicati — per studenti e per docenti — capaci di sviluppare un pensiero critico rispetto ai contenuti visuali, insegnando a riconoscere le manipolazioni e, soprattutto, a comprenderne le conseguenze legali e umane.

La sicurezza digitale, d'altronde, non è più una competenza accessoria. È un prerequisito per la cittadinanza consapevole.

Il quadro più ampio: intelligenza artificiale e responsabilità delle piattaforme

L'iniziativa di X si inserisce in un contesto in cui le grandi aziende tecnologiche cercano di bilanciare innovazione e tutela degli utenti, spesso con risultati discutibili. L'intelligenza artificiale generativa avanza a ritmi vertiginosi — come dimostrano gli sviluppi in settori molto diversi tra loro, dall'impiego dell'IA di Google per la manutenzione stradale fino alle ambizioni nel quantum computing di Microsoft — e le policy di moderazione arrancano.

L'AI Act europeo, entrato progressivamente in vigore, impone obblighi di trasparenza per i contenuti generati artificialmente e prevede restrizioni specifiche per i sistemi ad alto rischio. L'Italia, attraverso l'Autorità Garante per la protezione dei dati personali, ha già mostrato in passato una certa proattività — si pensi al temporaneo blocco di ChatGPT nel 2023. La domanda, ora, è se strumenti come il chatbot Grok integrato in un social network da centinaia di milioni di utenti possano continuare a operare con meccanismi di opt-out così fragili.

Perché la questione resta aperta, e va ben oltre un singolo interruttore nelle impostazioni di un'app. Riguarda il modello stesso con cui le piattaforme rendono accessibili tecnologie potenzialmente dannose: prima si distribuisce lo strumento a tutti, poi — solo quando le polemiche montano — si offre una via d'uscita parziale a chi sa dove cercarla.

Per le scuole, per le famiglie, per chiunque abbia a cuore la tutela dei più giovani in rete, il messaggio è uno solo: la tecnologia da sola non basta. E affidarsi alla buona volontà delle piattaforme, ancora meno.

Pubblicato il: 12 marzo 2026 alle ore 10:30

Domande frequenti

Come funziona la nuova funzione di blocco delle modifiche alle foto su X?

La nuova funzione consente agli utenti di attivare un'opzione che impedisce a terzi di modificare le proprie immagini tramite il chatbot Grok direttamente dall'app per iOS. Il sistema dovrebbe bloccare l'uso dell'intelligenza artificiale di X sulle foto pubblicate dall'utente.

Quali sono i principali limiti di questa funzione di blocco su X?

Il blocco agisce solo sull'ecosistema interno della piattaforma e solo per il chatbot Grok, lasciando fuori le manipolazioni fatte con altri strumenti esterni. Inoltre, non è disponibile sulla versione web di X e richiede un'attivazione consapevole da parte dell'utente.

Perché il fenomeno dei deepfake rappresenta un problema per la scuola?

Nelle scuole italiane sono sempre più frequenti casi di immagini di studenti e docenti manipolate e diffuse senza consenso, con gravi conseguenze reputazionali e psicologiche. Questo evidenzia la necessità di educare studenti e docenti a riconoscere e gestire i contenuti alterati.

Quali sono le attuali iniziative normative e regolamentari in Italia ed Europa sul tema degli IA e dei deepfake?

L'AI Act europeo prevede trasparenza e restrizioni per i sistemi IA ad alto rischio e l'Italia, tramite il Garante della Privacy, è stata già attiva con interventi come il blocco temporaneo di ChatGPT. Tuttavia, le policy delle piattaforme risultano spesso insufficienti e frammentarie.

Affidarsi solo alla tecnologia basta per proteggere gli utenti dai deepfake?

No, la tecnologia da sola non è sufficiente: servono percorsi educativi e una maggiore responsabilizzazione delle piattaforme. La protezione degli utenti, soprattutto i più giovani, richiede anche una cittadinanza digitale consapevole e informata.

Redazione EduNews24

Articolo creato da

Redazione EduNews24

Articoli pubblicati da parte della redazione di EduNews24.it

Articoli Correlati