{/* Extracted from Header.astro - Use appropriate classes/styles if animations needed */}

YouTube dichiara guerra ai deepfake: al via il rilevamento automatico per politici e giornalisti

La piattaforma di Google espande il suo strumento anti-contraffazione digitale a un gruppo pilota di figure pubbliche. Ma il fenomeno resta ancora largamente sommerso.

* La mossa di YouTube contro i volti rubati * Come funziona il sistema di rilevamento * Un fenomeno più vasto di quanto i numeri suggeriscano * Le implicazioni per la sicurezza digitale delle figure pubbliche * Un tassello in un quadro ancora incompleto

La mossa di YouTube contro i volti rubati {#la-mossa-di-youtube-contro-i-volti-rubati}

C'è un momento, nella vita di ogni piattaforma digitale, in cui la tecnologia che ha contribuito a creare diventa la sua minaccia più insidiosa. Per YouTube quel momento è adesso, e la risposta arriva sotto forma di un programma pilota che punta a schermare giornalisti, funzionari governativi e candidati politici dalla proliferazione incontrollata dei deepfake.

L'annuncio, diffuso nelle scorse ore, segna un'espansione significativa dello strumento di rilevamento delle sembianze nei video già presente sulla piattaforma. Fino ad oggi riservato a un perimetro più ristretto, il sistema viene ora aperto a categorie professionali particolarmente esposte alla manipolazione dell'immagine pubblica: chi fa informazione e chi governa o aspira a governare.

Non si tratta di un gesto simbolico. È una presa d'atto che l'intelligenza artificiale generativa ha reso la contraffazione audiovisiva alla portata di chiunque — e che le prime vittime sono quasi sempre le figure più riconoscibili.

Come funziona il sistema di rilevamento {#come-funziona-il-sistema-di-rilevamento}

Il meccanismo è relativamente lineare, almeno nella sua architettura dichiarata. I partecipanti al programma devono fornire a YouTube un video di identificazione facciale e un documento d'identità valido. A quel punto il sistema genera una sorta di impronta biometrica del volto dell'iscritto, che viene poi utilizzata per scansionare i video caricati sulla piattaforma.

Quando l'algoritmo rileva una corrispondenza tra un volto nel database del programma e un video appena pubblicato, scatta una verifica. L'obiettivo è intercettare contenuti non autorizzati che sfruttano le sembianze di una persona reale — tipicamente per attribuirle dichiarazioni mai pronunciate, comportamenti mai tenuti, posizioni politiche mai assunte.

Leslie Miller, tra le voci di YouTube che hanno commentato l'iniziativa, ha spiegato che la finalità è «proteggere l'integrità dell'immagine di leader e giornalisti», figure per le quali la credibilità visiva è un asset fondamentale. Una dichiarazione che, pur nella sua sobrietà istituzionale, lascia trasparire la consapevolezza del danno potenziale: un deepfake convincente di un candidato politico alla vigilia di un'elezione può valere più di mille post di disinformazione testuale.

Un fenomeno più vasto di quanto i numeri suggeriscano {#un-fenomeno-più-vasto-di-quanto-i-numeri-suggeriscano}

Un dato, tuttavia, merita attenzione critica. Stando a quanto dichiarato da Amjad Hanif, il numero di richieste di rimozione per deepfake ricevute da YouTube è «molto basso». La cifra, presa isolatamente, potrebbe suggerire un problema marginale. Ma chiunque si occupi di sicurezza digitale sa che le richieste formali di rimozione rappresentano solo la punta dell'iceberg.

Molte vittime non sanno nemmeno che un deepfake con il loro volto circola online. Altre non conoscono le procedure per richiederne l'eliminazione. Altre ancora temono l'effetto Streisand: che la richiesta di rimozione finisca per amplificare la visibilità del contenuto stesso. La dimensione sommersa del fenomeno è, con ogni probabilità, assai più ampia di quanto le statistiche ufficiali lascino intendere.

Del resto, i danni prodotti dai deepfake non si limitano alla sfera reputazionale. Come emerso nel caso della truffa multimilionaria in Europa e Canada che ha sfruttato deepfake per ingannare migliaia di risparmiatori, la contraffazione audiovisiva è diventata uno strumento operativo per frodi finanziarie di scala internazionale. Volti di personaggi noti — politici, imprenditori, giornalisti — vengono sovrapposti a video promozionali per prodotti inesistenti o schemi Ponzi. Il risultato è una perdita economica diretta per le vittime della truffa e un danno d'immagine devastante per chi si ritrova involontariamente testimonial di operazioni criminali.

Le implicazioni per la sicurezza digitale delle figure pubbliche {#le-implicazioni-per-la-sicurezza-digitale-delle-figure-pubbliche}

La scelta di concentrare il programma pilota su giornalisti, funzionari governativi e candidati politici non è casuale. Queste tre categorie condividono una caratteristica: la loro immagine pubblica ha un impatto diretto sulla formazione dell'opinione e, in ultima analisi, sulle dinamiche democratiche.

Un deepfake di un giornalista che legge una notizia falsa con tono e cadenza credibili può inquinare il dibattito pubblico con un'efficacia che nessun bot testuale potrebbe mai raggiungere. Un video manipolato di un candidato politico che pronuncia frasi razziste o ammette tangenti può decidere un'elezione. Non è fantascienza: è cronaca, sempre più frequente.

Per i giornalisti in particolare, la questione della sicurezza digitale assume contorni sempre più urgenti. Già esposti a minacce fisiche, querele temerarie e campagne di delegittimazione organizzate, i professionisti dell'informazione si trovano ora a dover difendere anche la propria identità visiva da manipolazioni che non richiedono competenze tecniche sofisticate.

Lo strumento di YouTube rappresenta un primo livello di difesa, ma la protezione dell'ecosistema informativo richiede approcci più articolati. La Commissione Europea, ad esempio, si è mossa su un piano complementare: come documentato, ha sviluppato nuovi strumenti per riconoscere e combattere la disinformazione, puntando sulla media literacy dei cittadini oltre che sul contrasto tecnologico.

Un tassello in un quadro ancora incompleto {#un-tassello-in-un-quadro-ancora-incompleto}

L'iniziativa di YouTube va letta per quello che è: un passo avanti significativo, ma tutt'altro che risolutivo. Lo strumento funziona solo per chi si iscrive volontariamente al programma. Richiede la cessione di dati biometrici sensibili — il che pone interrogativi legittimi sulla privacy e sulla gestione di queste informazioni. E soprattutto copre una sola piattaforma, quando i deepfake più dannosi circolano simultaneamente su decine di canali diversi, da Telegram a X, da TikTok ai gruppi WhatsApp.

C'è poi il nodo dell'efficacia tecnica. Gli algoritmi di rilevamento facciale migliorano, ma migliorano anche le tecniche di generazione. È una corsa agli armamenti digitale in cui il vantaggio, storicamente, tende a spostarsi verso chi attacca piuttosto che verso chi difende.

Il quadro normativo europeo offre qualche leva in più rispetto a quello di altri continenti, grazie all'AI Act e al Digital Services Act, che impongono alle piattaforme obblighi crescenti di trasparenza e intervento sui contenuti generati da intelligenza artificiale. Ma tra la norma scritta e la sua applicazione effettiva il divario resta ampio, come dimostra la lentezza con cui le grandi piattaforme si adeguano ai requisiti di moderazione previsti dalla legislazione comunitaria.

Quel che è certo è che il problema non si risolverà con un singolo strumento, per quanto sofisticato. Servono investimenti pubblici nella verifica dei contenuti, standard condivisi per l'etichettatura dei media sintetici, e una consapevolezza diffusa — tra cittadini, istituzioni e professionisti dell'informazione — che l'immagine digitale di una persona non è più, di per sé, una prova di nulla. È il nuovo analfabetismo del nostro tempo: non saper leggere le immagini con lo stesso spirito critico con cui abbiamo imparato — faticosamente — a leggere le parole.

Pubblicato il: 12 marzo 2026 alle ore 08:21