- L'allarme delle Autorità: una dichiarazione congiunta senza precedenti
- Il cuore del problema: contenuti intimi generati senza consenso
- Cosa chiedono i Garanti agli sviluppatori di IA
- Il ruolo dell'Italia e il quadro normativo europeo
- Una sfida che riguarda tutti
- Domande frequenti
L'allarme delle Autorità: una dichiarazione congiunta senza precedenti
Sessanta Autorità di protezione dati da tutto il mondo hanno deciso di parlare con una voce sola. Non accade spesso, e quando succede significa che la posta in gioco è altissima. La dichiarazione congiunta firmata nei giorni scorsi — alla quale ha aderito anche il Garante per la protezione dei dati personali italiano — affronta di petto uno dei fenomeni più inquietanti legati allo sviluppo dell'intelligenza artificiale: la generazione di contenuti intimi senza il consenso delle persone coinvolte.
Si tratta di immagini, video e audio creati attraverso sistemi di IA generativa capaci di sovrapporre volti reali a corpi nudi o a scene sessualmente esplicite. Il cosiddetto fenomeno dei deepfake a sfondo intimo, che negli ultimi anni ha conosciuto un'espansione esponenziale grazie alla crescente accessibilità degli strumenti tecnologici.
La dichiarazione, resa pubblica il 9 marzo 2026 da Roma, non è un documento meramente simbolico. È un atto politico e regolatorio che mira a tracciare una linea rossa, mettendo nero su bianco le responsabilità di chi progetta, sviluppa e distribuisce questi sistemi.
Il cuore del problema: contenuti intimi generati senza consenso
La questione è brutale nella sua semplicità: oggi chiunque, con competenze tecniche minime e un software scaricabile gratuitamente, può generare un'immagine sessualmente esplicita di qualsiasi persona. Basta una foto presa da un profilo social. Basta un volto.
Le vittime sono spesso donne e, in un numero crescente di casi, minorenni. Il danno psicologico e reputazionale è devastante, e si somma alla quasi totale impossibilità, per chi subisce l'abuso, di ottenere la rimozione completa dei contenuti una volta diffusi in rete. Stando a quanto emerge dalla dichiarazione congiunta, i Garanti sottolineano come l'abuso di informazioni personali — in questo caso, la semplice immagine di un volto — rappresenti una violazione fondamentale del diritto alla privacy e alla dignità.
Non si parla solo di revenge porn nel senso tradizionale. Qui il contenuto originale non esiste: viene fabbricato da zero. La persona raffigurata non ha mai acconsentito, non ha mai partecipato. Eppure il risultato è indistinguibile dalla realtà. È un problema di sicurezza digitale che si intreccia con le sfide più ampie della protezione dei dati nell'era dell'IA, non diversamente da quanto accade con gli attacchi informatici che colpiscono le infrastrutture digitali del Paese.
Cosa chiedono i Garanti agli sviluppatori di IA
Il documento firmato dalle 60 Autorità non si limita alla denuncia. Contiene richieste operative precise rivolte in primo luogo agli sviluppatori di sistemi di intelligenza artificiale generativa.
Tra le misure invocate:
- Prevenzione by design: i sistemi di IA devono essere progettati fin dall'origine per impedire — o quantomeno rendere estremamente difficile — la generazione di contenuti intimi non consensuali.
- Collaborazione attiva con le autorità di regolamentazione: i Garanti chiedono che le aziende tecnologiche non si limitino a rispondere a posteriori, ma lavorino fianco a fianco con i regolatori per definire standard tecnici e operativi.
- Trasparenza algoritmica: rendere tracciabile il processo di generazione, così da facilitare l'identificazione dei contenuti sintetici e la loro eventuale rimozione.
- Meccanismi di segnalazione rapida per le vittime, con tempi certi di risposta e rimozione.
Come sottolineato da diverse Autorità firmatarie, la responsabilità non può ricadere esclusivamente sulle vittime. Spetta a chi immette sul mercato strumenti potenzialmente pericolosi garantire che il loro utilizzo non violi i diritti fondamentali.
Il ruolo dell'Italia e il quadro normativo europeo
L'adesione del Garante italiano alla dichiarazione si inserisce in un percorso già avviato. L'Italia è stata tra i primi Paesi europei ad affrontare il tema dell'intelligenza artificiale sotto il profilo della protezione dei dati — basti pensare al caso ChatGPT del 2023, quando il Garante dispose un blocco temporaneo che fece il giro del mondo.
Sul piano europeo, il Regolamento sull'Intelligenza Artificiale (AI Act), entrato in vigore nel 2024, classifica i sistemi capaci di generare deepfake tra quelli soggetti a specifici obblighi di trasparenza. Ma la dichiarazione congiunta sembra andare oltre, suggerendo che le attuali disposizioni potrebbero non bastare. Il rischio, secondo i firmatari, è che la velocità dell'innovazione tecnologica superi costantemente la capacità di adeguamento delle norme.
Va ricordato che anche il Codice Rosso italiano, modificato più volte negli ultimi anni, prevede oggi il reato di diffusione illecita di immagini sessualmente esplicite (art. 612-ter c.p.), ma la sua applicabilità ai contenuti generati artificialmente resta oggetto di dibattito giuridico. La questione, insomma, è tutt'altro che risolta.
In un contesto in cui la disinformazione digitale assume forme sempre più sofisticate — come evidenziato anche dai nuovi strumenti messi in campo dalla Commissione Europea — il confine tra contenuto reale e contenuto sintetico si fa ogni giorno più sottile. E più pericoloso.
Una sfida che riguarda tutti
Sarebbe un errore liquidare la vicenda come un problema esclusivamente tecnologico o giuridico. La generazione di contenuti intimi tramite IA senza consenso è, prima di tutto, una questione di dignità umana. Colpisce persone reali, con conseguenze reali.
La mossa delle 60 Autorità garanti ha il merito di portare il tema al livello che gli compete: quello globale. Perché i dati non conoscono confini, le piattaforme operano su scala planetaria e nessun singolo ordinamento nazionale — per quanto avanzato — può affrontare da solo una sfida di questa portata.
Resta da capire se la dichiarazione si tradurrà in azioni concrete e coordinate o resterà, come troppo spesso accade, una presa di posizione destinata a invecchiare nei cassetti della diplomazia istituzionale. I prossimi mesi saranno decisivi. E gli sviluppatori di IA, ora, sanno di essere osservati.