Loading...
Il pendolo dell'algoritmo: il Rapporto Polisophia chiede un orientamento umano per l'Intelligenza Artificiale
Tecnologia

Il pendolo dell'algoritmo: il Rapporto Polisophia chiede un orientamento umano per l'Intelligenza Artificiale

Disponibile in formato audio

Il think tank guidato da Ruben Razzante presenta il Rapporto 2025-2026 sugli scenari dell'IA. Dall'industria all'accademia, il messaggio è univoco: senza supervisione umana, l'innovazione rischia di perdere la bussola etica.

Il Rapporto Polisophia 2025-2026: una bussola nel labirinto algoritmico

Si intitola Il pendolo dell'algoritmo e già nel titolo racchiude l'ambivalenza del nostro tempo: l'Intelligenza Artificiale oscilla tra promessa e rischio, tra efficienza e opacità, tra progresso tecnologico e regressione etica. Il Rapporto 2025-2026 della community Polisophia, presentato a Roma, prova a fissare un punto fermo in questo movimento pendolare. La tesi di fondo è netta: serve un orientamento umano dell'IA, non come concessione romantica al passato, ma come condizione strutturale per un'innovazione che abbia senso.

A curare il documento è stato Ruben Razzante, giurista e studioso dei diritti dell'informazione, figura di riferimento nel dibattito italiano sull'etica digitale. Polisophia, va ricordato, non è un semplice osservatorio accademico. Si definisce community per l'innovazione responsabile e aggrega voci provenienti dal mondo dell'impresa, della ricerca e delle istituzioni. Un incrocio di competenze che conferisce al rapporto una dimensione concreta, lontana dalle pure speculazioni filosofiche.

Il documento attraversa gli scenari aperti dall'IA generativa, dai sistemi decisionali automatizzati, dall'impiego degli algoritmi nella sanità, nella produzione industriale, nella pubblica amministrazione. E lo fa con un approccio che non demonizza la tecnologia, ma ne interroga i presupposti.

Innovazione responsabile: la voce dell'industria

Che il richiamo alla responsabilità arrivi anche dal cuore del sistema produttivo non è un dettaglio. Alvise Biffi, presidente di Assolombarda, ha sottolineato con chiarezza l'importanza di un modello di innovazione responsabile. Le imprese, stando a quanto emerge dalle sue dichiarazioni, non possono permettersi di adottare l'IA come semplice leva competitiva senza porsi il problema delle ricadute sociali e occupazionali.

È un segnale significativo. L'associazione degli industriali lombardi, tradizionalmente orientata alla crescita e alla produttività, riconosce esplicitamente che l'adozione massiva degli algoritmi richiede un quadro di riferimento etico. Non si tratta di rallentare, ma di governare. Una posizione che, in un Paese dove il tessuto imprenditoriale è ancora largamente composto da piccole e medie imprese, ha implicazioni profonde: la transizione algoritmica, senza accompagnamento, rischia di creare fratture enormi.

Del resto, come emerge anche dal dibattito più ampio sulle trasformazioni del lavoro, la questione dell'impatto umano delle rivoluzioni tecnologiche non può essere confinata ai convegni. Chi ogni giorno opera nelle scuole, negli ospedali, nelle fabbriche, vive già sulla propria pelle le conseguenze di scelte che altri definiscono "innovative". Non è un caso che anche Il Lavoro Sconosciuto dei Docenti: Oltre le 36 Ore Settimanali racconti di professionisti schiacciati tra richieste crescenti e strumenti che cambiano più velocemente della formazione disponibile.

Supervisione umana: non un freno, ma una garanzia

Tra i contributi più incisivi del Rapporto spicca quello di Marcello Cattani, voce autorevole di Farmindustria. Il suo intervento mette a fuoco un punto cruciale: la supervisione umana nell'IA non è un optional, è una necessità. Soprattutto in settori come quello farmaceutico, dove un errore algoritmico può avere conseguenze irreversibili sulla vita delle persone.

Cattani, come sottolineato nel documento, insiste sul fatto che i sistemi di intelligenza artificiale applicati alla ricerca clinica, alla farmacovigilanza, alla gestione dei dati sanitari debbano sempre prevedere un livello di controllo umano. È la logica del human in the loop, principio cardine anche dell'AI Act europeo entrato progressivamente in vigore. L'Italia, che ha recepito il regolamento con proprie linee guida attraverso l'Agenzia per l'Italia Digitale (AgID) e l'Autorità garante, si trova ora nella fase più delicata: tradurre i principi in prassi operative.

E qui sta il nodo. Perché dichiarare che l'essere umano deve restare al centro è relativamente facile. Costruire architetture decisionali, organizzative e normative che lo garantiscano davvero è tutt'altra questione.

L'essere umano come soggetto morale nell'era degli algoritmi

La riflessione forse più profonda del Rapporto porta la firma di Sara Rubinelli, che affronta il tema da una prospettiva filosofica e antropologica. La sua affermazione è diretta: l'essere umano è un soggetto morale anche nell'era dell'Intelligenza Artificiale. Sembra ovvio, ma non lo è affatto.

In un contesto in cui le decisioni vengono progressivamente delegate a sistemi automatici, la tentazione di deresponsabilizzarsi è forte. Se un algoritmo suggerisce, filtra, seleziona, chi porta la responsabilità dell'esito? L'ingegnere che lo ha progettato? L'azienda che lo ha commissionato? L'utente che lo ha attivato? La risposta di Rubinelli è che la catena della responsabilità non può mai spezzarsi: l'umano resta titolare di una dimensione morale che nessuna macchina può assorbire o sostituire.

Questa prospettiva dialoga strettamente con il dibattito sulla partecipazione civica e sulla formazione delle nuove generazioni. Come evidenziato anche in Insegnare Speranza e Partecipazione Civica in Tempi di Crisi Democratica, educare alla responsabilità individuale e collettiva diventa ancora più urgente quando gli strumenti a disposizione sono potentissimi ma moralmente neutri. L'algoritmo non distingue il bene dal male. Lo fa, eventualmente, chi lo governa.

Il quadro italiano e la sfida che resta aperta

L'Italia si trova in una posizione peculiare nel panorama europeo dell'Intelligenza Artificiale. Da un lato, ha un ecosistema di ricerca di qualità, centri universitari all'avanguardia, un tessuto industriale che sta investendo in automazione e digitalizzazione. Dall'altro, sconta ritardi cronici nella formazione digitale diffusa, nell'infrastrutturazione tecnologica del Mezzogiorno, nella capacità della pubblica amministrazione di integrare strumenti innovativi senza perdere il controllo dei processi.

Il Rapporto di Polisophia si inserisce in questo contesto con un contributo che non ha la pretesa di risolvere tutto, ma che pone le domande giuste al momento giusto. Il pendolo dell'algoritmo continuerà a oscillare. La direzione in cui si fermerà dipenderà dalle scelte politiche, industriali ed educative dei prossimi anni.

Stando a quanto emerge dal documento curato da Razzante, la strada è una sola: l'IA deve essere uno strumento al servizio dell'umano, non il contrario. Un principio che, nella sua apparente semplicità, richiede uno sforzo collettivo enorme per essere tradotto in realtà. E che impone, a chi governa l'innovazione in Italia, di non confondere la velocità con la direzione.

Pubblicato il: 1 aprile 2026 alle ore 13:07

Domande frequenti

Qual è la principale tesi del Rapporto Polisophia 2025-2026 sull'intelligenza artificiale?

Il Rapporto sostiene che è necessario un orientamento umano dell'IA, non come nostalgia del passato, ma come condizione strutturale per un'innovazione tecnologica che abbia senso e rispetti valori etici.

Perché la supervisione umana è considerata fondamentale nell'utilizzo dell'IA, secondo il Rapporto?

La supervisione umana è vista come una garanzia, non come un freno: in settori critici come quello sanitario, un controllo umano costante è indispensabile per prevenire errori gravi e garantire responsabilità nelle decisioni automatizzate.

Qual è la posizione dell'industria italiana sull'adozione responsabile dell'IA?

Anche l'industria riconosce l'importanza di un modello di innovazione responsabile, sottolineando che l'adozione massiva dell'IA deve essere accompagnata da una riflessione sulle ricadute sociali e occupazionali, e da un solido quadro etico di riferimento.

Come viene affrontato il tema della responsabilità morale nell'era degli algoritmi?

Il Rapporto evidenzia che, anche in presenza di sistemi automatizzati, la responsabilità morale resta sempre in capo all'essere umano, che non può delegarla totalmente agli algoritmi.

Quali sono le principali sfide che l'Italia deve affrontare nell'integrazione dell'IA?

L'Italia deve colmare i ritardi nella formazione digitale, migliorare l'infrastrutturazione tecnologica, soprattutto nel Mezzogiorno, e rafforzare la capacità della pubblica amministrazione di adottare innovazione senza perdere il controllo sulle decisioni.

Redazione EduNews24

Articolo creato da

Redazione EduNews24

Articoli pubblicati da parte della redazione di EduNews24.it

Articoli Correlati