Loading...
Intelligenza artificiale e informazione, da Firenze l'appello degli esperti: «L'Europa deve regolamentare le piattaforme»
Tecnologia

Intelligenza artificiale e informazione, da Firenze l'appello degli esperti: «L'Europa deve regolamentare le piattaforme»

Disponibile in formato audio

Al convegno della Fondazione Rosselli il dibattito su IA, giornalismo e pluralismo mediatico.

Il convegno di Firenze: l'Europa e il suo futuro digitale

L'intelligenza artificiale sta ridisegnando i confini dell'informazione. Lo fa in silenzio, spesso senza che lettori e cittadini se ne accorgano. Ed è proprio questa invisibilità a preoccupare chi, di mestiere, studia l'impatto delle tecnologie sulla democrazia e sul diritto all'informazione.

A Firenze, il convegno «L'Europa ha un futuro digitale?», promosso dalla Fondazione Circolo Fratelli Rosselli, ha riunito giuristi, esperti di media e figure istituzionali attorno a una domanda che non ammette risposte facili: come regolamentare le piattaforme basate sull'intelligenza artificiale senza soffocare l'innovazione, ma proteggendo al tempo stesso il tessuto democratico dell'informazione?

Il dibattito fiorentino ha messo sul tavolo dati, timori e qualche proposta concreta. Stando a quanto emerso dagli interventi, il filo conduttore è stato chiaro: l'Unione Europea deve accelerare il proprio percorso regolamentare, perché il tempo gioca a favore di chi ha tutto l'interesse a operare in un vuoto normativo.

Spini e la via europea alla regolamentazione

Valdo Spini, presidente della Fondazione Rosselli e figura di lungo corso nella politica italiana, ha aperto i lavori con un messaggio netto. L'approccio regolamentare dell'Unione Europea, ha sostenuto, merita pieno supporto. Non si tratta di imbrigliare la tecnologia, ma di garantire che il suo sviluppo avvenga dentro un quadro di regole chiare e condivise.

Un riferimento implicito, il suo, all'AI Act, il regolamento europeo sull'intelligenza artificiale entrato in vigore nel 2024 e la cui applicazione procede per fasi. Spini ha insistito sulla necessità di non lasciare che siano solo le grandi piattaforme tecnologiche, quasi tutte con sede oltreoceano, a dettare le regole del gioco. La questione, del resto, non è solo tecnologica: è profondamente politica.

Anche in altri ambiti della vita pubblica italiana, del resto, la richiesta di una regolamentazione chiara e tempestiva si fa sempre più pressante, come dimostra ad esempio Lo Snals chiede subito il contratto e di regolamentare la formazione, a conferma di un clima generale in cui il bisogno di norme certe attraversa settori molto diversi tra loro.

IA e giornalismo: sostituzione o convivenza?

Tra gli interventi più seguiti, quello di Carlo Sorrentino, docente e studioso dei media, che ha affrontato di petto la questione che agita le redazioni di mezzo mondo. L'intelligenza artificiale sostituirà i giornalisti? La sua risposta è stata netta: no.

Ma la rassicurazione, ha precisato Sorrentino, non è un invito all'immobilismo. L'IA è già ampiamente utilizzata nelle redazioni per automatizzare compiti ripetitivi, dall'aggregazione di dati alla generazione di testi standardizzati. Quello che non può fare, almeno per ora, è ciò che rende il giornalismo indispensabile: verificare le fonti, contestualizzare, esercitare il giudizio critico, raccontare la complessità del reale senza ridurla a un algoritmo.

Su questo punto si è innestato l'intervento di Stefano Balassone, che ha spostato il fuoco su un aspetto complementare. In un ecosistema informativo invaso da contenuti generati automaticamente, ha sottolineato, il giornalismo qualificato diventa paradossalmente più importante, non meno. La sfida, semmai, è renderlo riconoscibile. Distinguibile. Visibile in mezzo al rumore.

Una riflessione che tocca da vicino anche il mondo dell'istruzione e della formazione, dove la capacità di selezionare e valutare le informazioni dovrebbe essere al centro di ogni percorso educativo.

Trasparenza dei contenuti generati dall'IA: l'allarme di Simoncini

Il giurista Andrea Simoncini ha portato il dibattito su un terreno più strettamente normativo, lanciando un avvertimento che merita attenzione. I contenuti prodotti dall'intelligenza artificiale, ha spiegato, rappresentano un rischio serio quando non sono accompagnati da alcuna indicazione sulla loro origine. In altre parole: il problema non è che l'IA produca testi, immagini o video. Il problema è che lo faccia senza che il destinatario lo sappia.

È il tema della trasparenza algoritmica, uno dei pilastri dell'AI Act europeo, che impone obblighi di etichettatura per i contenuti generati o manipolati dall'intelligenza artificiale. Ma tra il dettato normativo e la sua applicazione effettiva, come spesso accade, il divario resta ampio.

Simoncini ha insistito su un punto cruciale: senza trasparenza, il rischio è quello di un'erosione progressiva della fiducia pubblica nell'informazione. Se il lettore non può più distinguere tra un articolo scritto da un giornalista e uno generato da un modello linguistico, il danno non è solo professionale. È democratico.

Pluralismo mediatico a rischio: il caso italiano

Uno degli interventi più incisivi è arrivato da Elda Brogi, ricercatrice esperta di diritto dei media e pluralismo informativo, che ha riportato l'attenzione sulla specificità italiana. Il nostro Paese, ha ricordato, presenta da anni indicatori preoccupanti in materia di pluralismo mediatico: concentrazione della proprietà editoriale, commistione tra interessi politici e imprenditoriali nel settore dell'informazione, fragilità economica di molte testate.

L'irruzione delle piattaforme basate sull'IA rischia di aggravare questo quadro già problematico. I grandi aggregatori algoritmici, ha spiegato Brogi, tendono a privilegiare i contenuti che generano maggiore engagement, non necessariamente quelli più accurati o plurali. Il risultato è una progressiva omologazione dell'offerta informativa, a danno delle voci più piccole e indipendenti.

Un meccanismo che, per certi versi, ricorda le dinamiche di selezione che operano anche in altri settori della vita pubblica italiana, dove la richiesta di criteri più equi e trasparenti è un tema ricorrente, come nel caso della Richiesta di Modifica alla Legge sui Concorsi: Un Appello alla Riforma del Sistema Selettivo.

Brogi ha richiamato il Media Freedom Act europeo, adottato nel 2024, come strumento potenzialmente utile ma ancora largamente inattuato nella sua portata più ambiziosa. Serve, ha detto, una volontà politica che vada oltre le dichiarazioni di principio.

Una sfida che riguarda tutti

Dal convegno fiorentino emerge un messaggio univoco, pur nella diversità delle voci che lo hanno composto. La regolamentazione europea delle piattaforme basate sull'intelligenza artificiale non è un lusso accademico né una battaglia di retroguardia contro il progresso tecnologico. È una necessità democratica.

L'IA non è il nemico. Ma un'IA senza regole, senza trasparenza, senza responsabilità, rischia di diventare uno strumento di disinformazione su scala industriale. E l'Europa, che sull'AI Act ha avuto il merito di muoversi per prima rispetto ad altre aree del mondo, non può permettersi di rallentare proprio ora.

La posta in gioco, come ha ricordato più di un relatore a Firenze, non è solo il futuro del giornalismo o dell'editoria. È la qualità dell'informazione che arriva ai cittadini. È la possibilità stessa di formarsi un'opinione libera e consapevole in un'epoca in cui distinguere il vero dal verosimile diventa ogni giorno più difficile.

E questa, per dirla con le parole che hanno chiuso il convegno, è una sfida che non può essere delegata agli algoritmi.

Pubblicato il: 20 aprile 2026 alle ore 16:44

Domande frequenti

Perché è importante regolamentare le piattaforme basate sull'intelligenza artificiale in Europa?

La regolamentazione è fondamentale per proteggere la democrazia e il diritto all'informazione, evitando che le grandi piattaforme tecnologiche, spesso straniere, impongano le proprie regole in assenza di norme chiare.

L'intelligenza artificiale sostituirà i giornalisti?

Secondo gli esperti intervenuti al convegno, l'IA non sostituirà i giornalisti, ma è già utilizzata per automatizzare compiti ripetitivi. Tuttavia, il valore aggiunto del giornalismo umano resta indispensabile per la verifica delle fonti e il giudizio critico.

Quali sono i rischi legati alla mancanza di trasparenza nei contenuti generati dall'IA?

La mancanza di trasparenza può erodere la fiducia pubblica nell'informazione, poiché i lettori potrebbero non distinguere tra contenuti creati da giornalisti e quelli generati automaticamente, con conseguenze anche sul piano democratico.

In che modo l'IA può influire sul pluralismo mediatico, soprattutto in Italia?

L'IA e gli algoritmi delle piattaforme tendono a privilegiare i contenuti più coinvolgenti, rischiando di omologare l'informazione e penalizzare le voci indipendenti, aggravando i problemi di pluralismo già esistenti in Italia.

Qual è il ruolo dell'AI Act e del Media Freedom Act nel contesto discusso al convegno di Firenze?

L'AI Act introduce regole sulla trasparenza e l'etichettatura dei contenuti generati dall'IA, mentre il Media Freedom Act mira a rafforzare il pluralismo e la libertà dei media; entrambi sono visti come strumenti essenziali ma richiedono applicazione concreta e volontà politica.

Redazione EduNews24

Articolo creato da

Redazione EduNews24

Articoli pubblicati da parte della redazione di EduNews24.it

Articoli Correlati