Loading...
Deepfake su Facebook, 100 milioni di visualizzazioni per un video falso: Meta sotto accusa per moderazione carente
Tecnologia

Deepfake su Facebook, 100 milioni di visualizzazioni per un video falso: Meta sotto accusa per moderazione carente

Disponibile in formato audio

Il Meta Oversight Board bacchetta il colosso di Zuckerberg: il filmato AI su presunti attacchi iraniani a Haifa non è mai stato etichettato. Chieste regole più severe per i contenuti generati dall'intelligenza artificiale

Il caso: un video fake da 100 milioni di views

Cento milioni di visualizzazioni. Tanto è bastato perché un video interamente generato con intelligenza artificiale si trasformasse in una macchina di disinformazione su scala globale, rimbalzando tra Facebook, Instagram e WhatsApp senza che Meta muovesse un dito per fermarlo — o almeno per segnalarlo.

Il filmato, comparso sulle piattaforme del gruppo guidato da Mark Zuckerberg, mostrava scene di distruzione nella città israeliana di Haifa, attribuendo i danni a presunti attacchi missilistici iraniani. Immagini potenti, drammatiche, capaci di suscitare indignazione immediata. Peccato fossero completamente false: nessun attacco, nessun danno reale. Solo pixel assemblati da un algoritmo.

Eppure il contenuto ha viaggiato indisturbato, senza alcuna etichetta che ne indicasse la natura artificiale. Nessun avviso, nessun flag. Per milioni di utenti quel video era semplicemente una notizia, condivisa e ricondivisa con la fiducia — mal riposta — che qualcuno, da qualche parte, avesse verificato.

La bocciatura dell'Oversight Board

A intervenire è stato il Meta Oversight Board, l'organo indipendente istituito dallo stesso colosso tecnologico per sorvegliare le politiche di moderazione dei contenuti. Il verdetto è stato netto: Meta ha fallito.

Stando a quanto emerge dalla pronuncia del Board, la piattaforma non ha etichettato il video come contenuto generato con AI, violando di fatto i propri standard interni. Una falla grave, considerato che il filmato non si limitava a intrattenere o a distorcere la realtà in modo innocuo: alimentava una narrativa geopolitica falsa, potenzialmente in grado di inasprire tensioni internazionali già altissime.

La critica del Board non si è fermata al singolo episodio. Il caso di Haifa, per quanto clamoroso, è stato trattato come sintomo di un problema strutturale: la moderazione dei contenuti AI su Meta è insufficiente. I sistemi automatici non hanno intercettato il deepfake, la revisione umana non è intervenuta in tempo, e il risultato è stato un video virale che ha raggiunto un pubblico sterminato prima che qualcuno sollevasse dubbi sulla sua autenticità.

Etichette di rischio e deepfake: cosa chiede il Board

Tra le raccomandazioni più significative contenute nella decisione, spicca la richiesta di introdurre etichette di rischio più severe per i contenuti deepfake. Non semplici diciture generiche, ma avvisi calibrati sulla pericolosità potenziale del contenuto — un sistema a livelli, insomma, che distingua tra un video satirico palesemente artificiale e un filmato costruito per sembrare reale e influenzare l'opinione pubblica su questioni sensibili.

Il Board ha inoltre sollecitato Meta a:

  • Potenziare i sistemi di rilevamento automatico dei contenuti generati con intelligenza artificiale, oggi evidentemente inadeguati di fronte alla qualità crescente dei deepfake.
  • Rendere obbligatoria l'etichettatura per qualsiasi contenuto AI che riguardi eventi di cronaca, conflitti o figure politiche.
  • Ridurre i tempi di intervento, evitando che un video falso possa circolare per giorni — o settimane — prima di essere segnalato.

Si tratta di indicazioni che, pur non essendo vincolanti in senso stretto, esercitano una pressione reputazionale significativa su Meta. In passato, il colosso di Menlo Park ha accolto la maggior parte delle raccomandazioni del Board, anche se con tempi e modalità non sempre soddisfacenti.

Il nodo della moderazione automatica

Il caso solleva una questione che il mondo tech affronta con crescente affanno: la moderazione su scala è possibile? Con miliardi di contenuti caricati ogni giorno su Facebook, Instagram e WhatsApp, affidarsi esclusivamente a sistemi automatici significa accettare un margine di errore che, quando si parla di disinformazione geopolitica, può avere conseguenze concrete.

D'altro canto, la revisione umana non può coprire volumi simili. E il problema non riguarda solo Meta. Come sottolineato da diversi analisti, l'intero ecosistema dei social network si trova in una posizione scomoda: le stesse tecnologie AI che generano deepfake sempre più sofisticati dovrebbero, in teoria, essere anche lo strumento per individuarli. Ma la corsa tra chi crea e chi rileva è impari, e al momento chi produce contenuti falsi sembra avere un vantaggio strutturale.

Non si tratta peraltro di un fenomeno isolato. Il tema della manipolazione attraverso l'intelligenza artificiale coinvolge l'intero panorama digitale, dai motori di ricerca ai chatbot. Basti pensare a come i chatbot infettati dalla disinformazione pro-Russia: oltre 3 milioni di articoli compromettenti abbiano dimostrato la vulnerabilità degli strumenti AI di fronte a campagne coordinate di manipolazione informativa.

Un problema che va oltre Meta

La vicenda del video su Haifa arriva in un momento in cui la pressione normativa sui contenuti generati con AI sta crescendo in tutto il mondo. L'AI Act europeo, entrato progressivamente in vigore, impone obblighi di trasparenza per i contenuti sintetici, e diversi governi stanno valutando misure più stringenti contro la diffusione di deepfake a scopo di disinformazione.

Ma la velocità della tecnologia supera quella delle regolamentazioni. Mentre legislatori e autorità discutono di framework e standard, i generatori di video AI diventano sempre più accessibili e i risultati sempre più difficili da distinguere dalla realtà. Un video che nel 2023 sarebbe apparso chiaramente artificiale oggi può ingannare non solo l'utente distratto, ma anche osservatori più attenti.

La questione resta aperta, e il caso segnalato dall'Oversight Board di Meta ne è la dimostrazione più eloquente: 100 milioni di persone hanno guardato un evento che non è mai accaduto, e nessuno — né algoritmo né moderatore — ha ritenuto necessario avvisarle. Se questo non basta a ridefinire le priorità nella moderazione dei contenuti AI, è difficile immaginare cosa possa farlo.

Pubblicato il: 11 marzo 2026 alle ore 15:36

Domande frequenti

Cosa è successo con il video deepfake su Facebook riguardante Haifa?

Un video interamente generato con intelligenza artificiale, che mostrava false scene di distruzione a Haifa attribuite a un attacco iraniano, ha raggiunto 100 milioni di visualizzazioni sulle piattaforme Meta senza alcun avviso o etichetta che ne indicasse la natura artificiale.

Quali critiche ha mosso l'Oversight Board a Meta?

L'Oversight Board ha criticato Meta per non aver etichettato il video come contenuto AI e per la carenza dei sistemi di moderazione, sottolineando che la piattaforma ha violato i propri standard interni e ha permesso la diffusione di disinformazione potenzialmente pericolosa.

Cosa raccomanda l'Oversight Board riguardo la gestione dei deepfake?

Il Board suggerisce di introdurre etichette di rischio più severe e specifiche per i deepfake, potenziare i sistemi automatici di rilevamento e rendere obbligatoria l'etichettatura per i contenuti AI relativi a eventi di cronaca, conflitti o figure politiche, oltre a ridurre i tempi di intervento.

Perché la moderazione automatica dei contenuti AI è considerata insufficiente?

Con miliardi di contenuti pubblicati ogni giorno, i sistemi automatici non riescono a rilevare tutti i deepfake sofisticati, mentre la revisione umana non può gestire volumi così elevati, lasciando ampi margini di errore nella rilevazione della disinformazione.

Il problema dei deepfake riguarda solo Meta?

No, il problema è diffuso in tutto l'ecosistema digitale, dai social network ai motori di ricerca e chatbot, e riguarda la capacità delle tecnologie AI sia di generare che di individuare contenuti falsi, spesso con un vantaggio per chi produce disinformazione.

Qual è il ruolo delle normative come l'AI Act europeo nella gestione dei contenuti AI?

Le normative come l'AI Act europeo introdurranno obblighi di trasparenza e misure più stringenti per i contenuti sintetici, ma la rapidità dell'evoluzione tecnologica rende difficile per le regolamentazioni stare al passo con la diffusione dei deepfake.

Redazione EduNews24

Articolo creato da

Redazione EduNews24

Articoli pubblicati da parte della redazione di EduNews24.it

Articoli Correlati