* La nuova offensiva di Meta contro le frodi digitali * Come cambiano Facebook, Messenger e WhatsApp * 159 milioni di inserzioni fraudolente: i numeri del fenomeno * Deepfake e impersonificazione: il lato oscuro dell'IA generativa * Cosa cambia per gli utenti italiani
La nuova offensiva di Meta contro le frodi digitali {#la-nuova-offensiva-di-meta-contro-le-frodi-digitali}
Il problema era diventato troppo grande per essere ignorato. Meta ha annunciato un pacchetto di contromisure senza precedenti per arginare l'ondata di truffe che sfruttano l'intelligenza artificiale sulle sue piattaforme. Facebook, Messenger e WhatsApp — che insieme raggiungono oltre tre miliardi di utenti attivi nel mondo — riceveranno nuovi sistemi di avviso progettati per intercettare tentativi di frode sempre più sofisticati.
Al centro della strategia c'è un dato che dice più di qualsiasi dichiarazione d'intenti: nel solo 2025, l'azienda di Menlo Park ha rimosso 159 milioni di inserzioni fraudolente. Un numero che fotografa la scala industriale raggiunta dalle truffe online, alimentate da strumenti di IA generativa capaci di produrre contenuti falsi con una verosimiglianza inquietante.
La decisione arriva in un momento in cui le autorità di regolamentazione europee — Commissione UE e garanti nazionali della privacy in testa — stanno intensificando la pressione sulle Big Tech affinché assumano responsabilità più dirette nella protezione degli utenti.
Come cambiano Facebook, Messenger e WhatsApp {#come-cambiano-facebook-messenger-e-whatsapp}
Le nuove misure si articolano su tre livelli distinti, ciascuno calibrato sulle specificità della piattaforma.
Su Facebook, il sistema segnalerà le richieste di amicizia sospette. Non si tratta di un semplice filtro: stando a quanto emerge, l'algoritmo incrocerà diversi indicatori — anzianità dell'account, pattern di comportamento, coerenza delle informazioni del profilo — per generare un avviso in tempo reale all'utente che riceve la richiesta. Un meccanismo pensato per bloccare sul nascere quei profili falsi che si spacciano per conoscenti, colleghi o figure pubbliche.
Messenger, dal canto suo, inizierà a monitorare account con comportamenti anomali. Chi riceve messaggi da contatti con attività irregolari — invii massivi, messaggi identici a più destinatari, link ripetitivi — vedrà comparire un avviso di sicurezza prima di interagire. Il confine tra tutela e sorveglianza è sottile, e Meta dovrà dimostrare di saperlo gestire nel rispetto del GDPR.
La novità forse più rilevante riguarda WhatsApp. L'app di messaggistica invierà notifiche specifiche quando verrà rilevato un tentativo di collegamento di nuovi dispositivi all'account dell'utente. Un intervento mirato a contrastare il cosiddetto _device hijacking_, tecnica con cui i truffatori tentano di prendere il controllo di account altrui per sfruttarne la rete di contatti.
159 milioni di inserzioni fraudolente: i numeri del fenomeno {#159-milioni-di-inserzioni-fraudolente-i-numeri-del-fenomeno}
Il volume delle truffe rimosse merita una riflessione a parte. 159 milioni di inserzioni fraudolente eliminate nel 2025 significa una media di oltre 435.000 al giorno. Una cifra che, per quanto impressionante negli sforzi di contrasto, racconta soprattutto quanto sia redditizio il business della frode digitale.
Le truffe più diffuse seguono uno schema collaudato: si crea un annuncio sponsorizzato che imita la comunicazione visiva di un marchio noto — banche, compagnie assicurative, piattaforme di e-commerce — oppure si utilizza il volto di un personaggio famoso per promuovere investimenti miracolosi o prodotti inesistenti. Un fenomeno, quest'ultimo, che ha già coinvolto nomi eccellenti, come testimonia il caso delle truffe energetiche che sfruttano il nome di Elon Musk per raggirare gli utenti con promesse di guadagni facili.
L'IA generativa ha abbassato drasticamente la barriera d'ingresso per i truffatori. Creare un video deepfake convincente, clonare la voce di un amministratore delegato, generare migliaia di varianti di testi pubblicitari ingannevoli: operazioni che fino a pochi anni fa richiedevano competenze tecniche avanzate oggi sono alla portata di chiunque abbia accesso ai giusti strumenti.
Deepfake e impersonificazione: il lato oscuro dell'IA generativa {#deepfake-e-impersonificazione-il-lato-oscuro-dellia-generativa}
Il cuore del problema sta nell'impersonificazione. Marchi, celebrità, professionisti: nessuno è al riparo. I deepfake — video o audio generati artificialmente che riproducono le sembianze e la voce di persone reali — sono diventati lo strumento prediletto delle organizzazioni criminali che operano nel settore delle frodi online.
Meta aveva già mosso i primi passi in questa direzione con l'introduzione di strumenti di riconoscimento facciale pensati per tutelare i personaggi pubblici, come raccontato nell'ambito delle nuove funzionalità di protezione dei VIP lanciate in Europa. Le contromisure annunciate ora rappresentano un'estensione di quella logica, applicata però su scala molto più ampia e rivolta alla totalità degli utenti.
Il rischio, come sottolineato da diversi esperti di cybersicurezza, è che si inneschi una corsa agli armamenti tecnologici: da un lato i sistemi di rilevamento, dall'altro gli strumenti per aggirarli. Una dinamica che rende indispensabile un aggiornamento costante dei modelli di difesa.
Cosa cambia per gli utenti italiani {#cosa-cambia-per-gli-utenti-italiani}
Per i circa 35 milioni di italiani che utilizzano quotidianamente almeno una delle piattaforme Meta, le novità si tradurranno in una presenza più visibile dei sistemi di allerta durante l'utilizzo ordinario dei servizi. Avvisi che compariranno in italiano, integrati nell'interfaccia e progettati per essere comprensibili anche a chi non ha dimestichezza con le questioni di sicurezza informatica.
La questione resta aperta su un punto cruciale: fino a che punto queste misure potranno essere efficaci senza un corrispondente sforzo di educazione digitale? In Italia, dove il tasso di alfabetizzazione informatica rimane tra i più bassi d'Europa secondo i dati Eurostat, gli avvisi tecnologici rischiano di non bastare se non accompagnati da campagne di sensibilizzazione mirate.
Il Garante per la protezione dei dati personali italiano, peraltro, vigila con attenzione sulle modalità con cui Meta implementa i propri sistemi di monitoraggio, soprattutto alla luce del Regolamento europeo sull'intelligenza artificiale — l'_AI Act_ — entrato progressivamente in vigore a partire dal 2024. L'equilibrio tra sicurezza e privacy, insomma, resta il nodo politico e giuridico più delicato dell'intera operazione.