Loading...
YouTube dichiara guerra ai deepfake: al via il rilevamento per politici e giornalisti
Tecnologia

YouTube dichiara guerra ai deepfake: al via il rilevamento per politici e giornalisti

Disponibile in formato audio

La piattaforma estende il suo sistema di scansione facciale a un gruppo pilota di figure pubbliche. Obiettivo: fermare i video falsi generati dall'intelligenza artificiale prima che diventino virali

La mossa di YouTube contro i video falsi

YouTube alza il livello di guardia. La piattaforma di proprietà di Google ha annunciato l'espansione del proprio strumento di rilevamento delle sembianze facciali nei video, estendendolo per la prima volta a un gruppo pilota composto da giornalisti, funzionari governativi e candidati politici. Una decisione che arriva in un momento tutt'altro che casuale: la proliferazione di contenuti generati dall'intelligenza artificiale — i cosiddetti deepfake — ha raggiunto dimensioni tali da rappresentare una minaccia concreta per l'informazione e i processi democratici.

Non si tratta di un esperimento marginale. Il sistema è progettato per scansionare in modo sistematico i filmati caricati sulla piattaforma, confrontando i volti presenti nei video con quelli delle persone iscritte al programma di protezione. L'obiettivo dichiarato è intercettare e segnalare i video non autorizzati creati tramite IA prima che possano diffondersi e causare danni reputazionali o, peggio, influenzare l'opinione pubblica.

Come funziona il sistema di rilevamento

Il meccanismo è più sofisticato di quanto possa sembrare a prima vista. YouTube ha sviluppato un sistema di riconoscimento facciale dedicato che opera in background, analizzando i nuovi upload e confrontandoli con un database di riferimento. Quando il software individua un volto corrispondente a quello di un partecipante al programma, il video viene sottoposto a una verifica ulteriore per determinare se si tratti di un contenuto legittimo o di un deepfake.

Stando a quanto emerge dalle prime informazioni disponibili, la tecnologia non si limita a un semplice confronto fotografico: utilizza algoritmi di deep learning capaci di riconoscere manipolazioni anche molto raffinate, quelle che all'occhio umano risulterebbero del tutto indistinguibili da un filmato autentico. Un passo avanti significativo, se si considera che fino a pochi mesi fa le stesse piattaforme faticavano a tenere il passo con la velocità di evoluzione degli strumenti di generazione artificiale.

Il fenomeno, del resto, ha già prodotto conseguenze gravi ben al di là del perimetro dell'informazione. Come emerso nel caso della Truffa multimilionaria in Europa e Canada: come i deepfake hanno ingannato migliaia di risparmiatori, i video falsi vengono ormai utilizzati anche per frodi finanziarie su larga scala, sfruttando l'immagine di personalità note per dare credibilità a schemi truffaldini.

Chi può iscriversi e a quali condizioni

Il programma, almeno in questa fase iniziale, non è aperto a tutti. YouTube ha circoscritto la platea ai soggetti ritenuti più esposti al rischio di manipolazione digitale:

  • Candidati politici impegnati in campagne elettorali
  • Funzionari governativi in carica
  • Giornalisti e professionisti dell'informazione

Per partecipare, ciascun iscritto deve sottoporsi a una procedura di identificazione rigorosa. Sono richiesti un video di riconoscimento facciale — che servirà come riferimento per il sistema di scansione — e un documento d'identità valido. Una doppia verifica che mira a garantire che il database contenga esclusivamente dati autentici e verificati.

La scelta di partire da un gruppo pilota ristretto appare strategica. Consente a YouTube di testare l'efficacia dello strumento in condizioni controllate, prima di un eventuale allargamento ad altre categorie di utenti. Non è escluso che, in una fase successiva, il servizio possa essere esteso ad accademici, attivisti e altre figure pubbliche particolarmente vulnerabili.

Il nodo della privacy e le garanzie previste

Ogni volta che il sistema segnala un potenziale deepfake, la richiesta di rimozione non sarà automatica. YouTube ha precisato che ogni caso verrà valutato singolarmente, applicando le proprie linee guida sulla privacy. Un punto cruciale, questo, che risponde almeno in parte alle preoccupazioni sollevate da più parti sull'uso massivo del riconoscimento facciale da parte delle grandi piattaforme tecnologiche.

La questione resta delicata. Da un lato, la necessità di proteggere l'integrità dell'immagine digitale di figure pubbliche è ormai indiscutibile. Dall'altro, la raccolta e la conservazione di dati biometrici — anche se su base volontaria — pone interrogativi che nel contesto europeo assumono un peso particolare, alla luce del Regolamento generale sulla protezione dei dati (GDPR) e del più recente AI Act dell'Unione Europea, che classifica i sistemi di identificazione biometrica tra le applicazioni ad alto rischio.

Anche la Commissione Europea si sta muovendo sul fronte della disinformazione digitale con strumenti dedicati, come emerge dalla recente iniziativa per riconoscere e combattere la disinformazione. Il programma di YouTube si inserisce dunque in un quadro più ampio di interventi, pubblici e privati, che tentano di arginare un fenomeno in crescita esponenziale.

Deepfake e democrazia: una minaccia che non si può più ignorare

Perché concentrarsi proprio su politici e giornalisti? La risposta è nei numeri e nella cronaca. Negli ultimi due anni, il volume di deepfake a sfondo politico è cresciuto in modo vertiginoso. Video manipolati di leader mondiali che pronunciano dichiarazioni mai fatte, finti servizi giornalistici confezionati per sembrare autentici, clip virali progettate per destabilizzare campagne elettorali: lo scenario è tutt'altro che teorico.

In Italia, dove il dibattito sulla sicurezza informatica si è intensificato anche a seguito di recenti attacchi informatici di rilievo, la questione dei deepfake elettorali rappresenta un fronte ancora relativamente sottovalutato. Eppure, con le tornate elettorali che si susseguono a livello locale e nazionale, il rischio che video falsi possano alterare il confronto democratico è concreto. E cresce di pari passo con l'accessibilità degli strumenti di generazione: oggi bastano pochi minuti e un software gratuito per creare un filmato credibile.

La mossa di YouTube non risolve il problema — sarebbe ingenuo pensarlo. Ma segna un cambio di passo rispetto all'approccio puramente reattivo che ha caratterizzato finora la gestione dei contenuti manipolati sulle grandi piattaforme. Passare dalla rimozione a posteriori al rilevamento preventivo significa, almeno nelle intenzioni, provare a fermare il danno prima che si produca.

Resta da vedere quanto il sistema si dimostrerà efficace nella pratica, e soprattutto se altre piattaforme seguiranno l'esempio. Perché se c'è una cosa che la cronaca recente ha insegnato, è che i deepfake non sono più un problema del futuro. Sono un problema di adesso.

Pubblicato il: 11 marzo 2026 alle ore 17:36

Domande frequenti

Come funziona il nuovo sistema di rilevamento dei deepfake introdotto da YouTube?

Il sistema utilizza un sofisticato riconoscimento facciale e algoritmi di deep learning per analizzare i video caricati, confrontando i volti con un database di riferimento degli iscritti al programma. Quando rileva una corrispondenza, il video viene sottoposto a una verifica ulteriore per distinguere tra contenuti autentici e deepfake.

Chi può iscriversi al programma di protezione di YouTube contro i deepfake e quali sono i requisiti?

Attualmente, possono iscriversi candidati politici, funzionari governativi e giornalisti. Per partecipare, è necessario fornire un video di riconoscimento facciale e un documento d'identità valido, garantendo così l'autenticità dei dati nel database.

Quali garanzie offre YouTube rispetto alla privacy dei partecipanti al programma?

Ogni richiesta di rimozione di un potenziale deepfake viene valutata singolarmente secondo le linee guida sulla privacy di YouTube. L'uso dei dati biometrici avviene su base volontaria, in conformità con le normative europee come il GDPR e l'AI Act.

Perché YouTube si concentra principalmente su politici e giornalisti nella lotta ai deepfake?

Politici e giornalisti sono tra le categorie più esposte al rischio di manipolazione digitale, soprattutto durante campagne elettorali o in momenti di alta attenzione mediatica. I deepfake possono compromettere la reputazione e influenzare l'opinione pubblica, mettendo a rischio i processi democratici.

Qual è l’obiettivo principale dell’iniziativa di YouTube contro i deepfake?

L'obiettivo è intercettare e segnalare preventivamente video non autorizzati creati tramite intelligenza artificiale prima che possano causare danni reputazionali o influenzare negativamente l’opinione pubblica. Il sistema mira a passare da un approccio reattivo a uno preventivo nella gestione dei contenuti manipolati.

Savino Grimaldi

Articolo creato da

Savino Grimaldi

Giornalista Pubblicista Savino Grimaldi è un giornalista laureando in Economia e Commercio, con una solida esperienza maturata nel settore della formazione. Da anni lavora con competenza nell’ambito della formazione professionale, distinguendosi per una conoscenza approfondita delle politiche attive del lavoro e delle dinamiche che legano istruzione, occupazione e sviluppo delle competenze. Alla preparazione economica e professionale affianca una grande passione per la lettura e per il giornalismo, che ne arricchiscono il profilo umano e culturale. Spazia con disinvoltura tra diverse tematiche, offrendo sempre il proprio punto di vista con equilibrio, sensibilità e spirito critico.

Articoli Correlati