{/* Extracted from Header.astro - Use appropriate classes/styles if animations needed */}

Intelligenza artificiale e informazione, da Firenze l'appello degli esperti: «L'Europa deve regolamentare le piattaforme»

Al convegno della Fondazione Rosselli il dibattito su IA, giornalismo e pluralismo mediatico.

* Il convegno di Firenze: l'Europa e il suo futuro digitale * Spini e la via europea alla regolamentazione * IA e giornalismo: sostituzione o convivenza? * Trasparenza dei contenuti generati dall'IA: l'allarme di Simoncini * Pluralismo mediatico a rischio: il caso italiano * Una sfida che riguarda tutti

Il convegno di Firenze: l'Europa e il suo futuro digitale {#il-convegno-di-firenze-leuropa-e-il-suo-futuro-digitale}

L'intelligenza artificiale sta ridisegnando i confini dell'informazione. Lo fa in silenzio, spesso senza che lettori e cittadini se ne accorgano. Ed è proprio questa invisibilità a preoccupare chi, di mestiere, studia l'impatto delle tecnologie sulla democrazia e sul diritto all'informazione.

A Firenze, il convegno «L'Europa ha un futuro digitale?», promosso dalla Fondazione Circolo Fratelli Rosselli, ha riunito giuristi, esperti di media e figure istituzionali attorno a una domanda che non ammette risposte facili: come regolamentare le piattaforme basate sull'intelligenza artificiale senza soffocare l'innovazione, ma proteggendo al tempo stesso il tessuto democratico dell'informazione?

Il dibattito fiorentino ha messo sul tavolo dati, timori e qualche proposta concreta. Stando a quanto emerso dagli interventi, il filo conduttore è stato chiaro: l'Unione Europea deve accelerare il proprio percorso regolamentare, perché il tempo gioca a favore di chi ha tutto l'interesse a operare in un vuoto normativo.

Spini e la via europea alla regolamentazione {#spini-e-la-via-europea-alla-regolamentazione}

Valdo Spini, presidente della Fondazione Rosselli e figura di lungo corso nella politica italiana, ha aperto i lavori con un messaggio netto. L'approccio regolamentare dell'Unione Europea, ha sostenuto, merita pieno supporto. Non si tratta di imbrigliare la tecnologia, ma di garantire che il suo sviluppo avvenga dentro un quadro di regole chiare e condivise.

Un riferimento implicito, il suo, all'AI Act, il regolamento europeo sull'intelligenza artificiale entrato in vigore nel 2024 e la cui applicazione procede per fasi. Spini ha insistito sulla necessità di non lasciare che siano solo le grandi piattaforme tecnologiche, quasi tutte con sede oltreoceano, a dettare le regole del gioco. La questione, del resto, non è solo tecnologica: è profondamente politica.

Anche in altri ambiti della vita pubblica italiana, del resto, la richiesta di una regolamentazione chiara e tempestiva si fa sempre più pressante, come dimostra ad esempio Lo Snals chiede subito il contratto e di regolamentare la formazione, a conferma di un clima generale in cui il bisogno di norme certe attraversa settori molto diversi tra loro.

IA e giornalismo: sostituzione o convivenza? {#ia-e-giornalismo-sostituzione-o-convivenza}

Tra gli interventi più seguiti, quello di Carlo Sorrentino, docente e studioso dei media, che ha affrontato di petto la questione che agita le redazioni di mezzo mondo. L'intelligenza artificiale sostituirà i giornalisti? La sua risposta è stata netta: no.

Ma la rassicurazione, ha precisato Sorrentino, non è un invito all'immobilismo. L'IA è già ampiamente utilizzata nelle redazioni per automatizzare compiti ripetitivi, dall'aggregazione di dati alla generazione di testi standardizzati. Quello che non può fare, almeno per ora, è ciò che rende il giornalismo indispensabile: verificare le fonti, contestualizzare, esercitare il giudizio critico, raccontare la complessità del reale senza ridurla a un algoritmo.

Su questo punto si è innestato l'intervento di Stefano Balassone, che ha spostato il fuoco su un aspetto complementare. In un ecosistema informativo invaso da contenuti generati automaticamente, ha sottolineato, il giornalismo qualificato diventa paradossalmente più importante, non meno. La sfida, semmai, è renderlo riconoscibile. Distinguibile. Visibile in mezzo al rumore.

Una riflessione che tocca da vicino anche il mondo dell'istruzione e della formazione, dove la capacità di selezionare e valutare le informazioni dovrebbe essere al centro di ogni percorso educativo.

Trasparenza dei contenuti generati dall'IA: l'allarme di Simoncini {#trasparenza-dei-contenuti-generati-dallia-lallarme-di-simoncini}

Il giurista Andrea Simoncini ha portato il dibattito su un terreno più strettamente normativo, lanciando un avvertimento che merita attenzione. I contenuti prodotti dall'intelligenza artificiale, ha spiegato, rappresentano un rischio serio quando non sono accompagnati da alcuna indicazione sulla loro origine. In altre parole: il problema non è che l'IA produca testi, immagini o video. Il problema è che lo faccia senza che il destinatario lo sappia.

È il tema della trasparenza algoritmica, uno dei pilastri dell'AI Act europeo, che impone obblighi di etichettatura per i contenuti generati o manipolati dall'intelligenza artificiale. Ma tra il dettato normativo e la sua applicazione effettiva, come spesso accade, il divario resta ampio.

Simoncini ha insistito su un punto cruciale: senza trasparenza, il rischio è quello di un'erosione progressiva della fiducia pubblica nell'informazione. Se il lettore non può più distinguere tra un articolo scritto da un giornalista e uno generato da un modello linguistico, il danno non è solo professionale. È democratico.

Pluralismo mediatico a rischio: il caso italiano {#pluralismo-mediatico-a-rischio-il-caso-italiano}

Uno degli interventi più incisivi è arrivato da Elda Brogi, ricercatrice esperta di diritto dei media e pluralismo informativo, che ha riportato l'attenzione sulla specificità italiana. Il nostro Paese, ha ricordato, presenta da anni indicatori preoccupanti in materia di pluralismo mediatico: concentrazione della proprietà editoriale, commistione tra interessi politici e imprenditoriali nel settore dell'informazione, fragilità economica di molte testate.

L'irruzione delle piattaforme basate sull'IA rischia di aggravare questo quadro già problematico. I grandi aggregatori algoritmici, ha spiegato Brogi, tendono a privilegiare i contenuti che generano maggiore engagement, non necessariamente quelli più accurati o plurali. Il risultato è una progressiva omologazione dell'offerta informativa, a danno delle voci più piccole e indipendenti.

Un meccanismo che, per certi versi, ricorda le dinamiche di selezione che operano anche in altri settori della vita pubblica italiana, dove la richiesta di criteri più equi e trasparenti è un tema ricorrente, come nel caso della Richiesta di Modifica alla Legge sui Concorsi: Un Appello alla Riforma del Sistema Selettivo.

Brogi ha richiamato il Media Freedom Act europeo, adottato nel 2024, come strumento potenzialmente utile ma ancora largamente inattuato nella sua portata più ambiziosa. Serve, ha detto, una volontà politica che vada oltre le dichiarazioni di principio.

Una sfida che riguarda tutti {#una-sfida-che-riguarda-tutti}

Dal convegno fiorentino emerge un messaggio univoco, pur nella diversità delle voci che lo hanno composto. La regolamentazione europea delle piattaforme basate sull'intelligenza artificiale non è un lusso accademico né una battaglia di retroguardia contro il progresso tecnologico. È una necessità democratica.

L'IA non è il nemico. Ma un'IA senza regole, senza trasparenza, senza responsabilità, rischia di diventare uno strumento di disinformazione su scala industriale. E l'Europa, che sull'AI Act ha avuto il merito di muoversi per prima rispetto ad altre aree del mondo, non può permettersi di rallentare proprio ora.

La posta in gioco, come ha ricordato più di un relatore a Firenze, non è solo il futuro del giornalismo o dell'editoria. È la qualità dell'informazione che arriva ai cittadini. È la possibilità stessa di formarsi un'opinione libera e consapevole in un'epoca in cui distinguere il vero dal verosimile diventa ogni giorno più difficile.

E questa, per dirla con le parole che hanno chiuso il convegno, è una sfida che non può essere delegata agli algoritmi.

Pubblicato il: 20 aprile 2026 alle ore 16:44