{/* Extracted from Header.astro - Use appropriate classes/styles if animations needed */}

IA a scuola, quando l'algoritmo sbaglia: chi ne risponde? Le criticità dell'atto amministrativo automatizzato

L'AI Act impone nuove regole alle istituzioni scolastiche, ma il nodo della responsabilità giuridica resta irrisolto. Dal 'black box problem' alla supervisione umana, ecco cosa cambia per i Dirigenti Scolastici

* L'algoritmo entra in segreteria: una svolta che va oltre la digitalizzazione * AI Act e scuola: i vincoli che cambiano le regole del gioco * Il black box problem: quando nemmeno chi decide sa perché * Motivazione dell'atto amministrativo: l'output non basta * Responsabilità giuridica: il Dirigente Scolastico resta al centro * Supervisione umana: obbligo o illusione? * Le ricadute concrete sulla vita scolastica

L'algoritmo entra in segreteria: una svolta che va oltre la digitalizzazione {#lalgoritmo-entra-in-segreteria-una-svolta-che-va-oltre-la-digitalizzazione}

C'è stato un tempo in cui digitalizzare la scuola significava passare dal registro cartaceo a quello elettronico, sostituire i faldoni con i file PDF, snellire le comunicazioni via PEC. Quella fase, per quanto faticosa, aveva un tratto rassicurante: la macchina eseguiva, l'uomo decideva. Oggi quel confine si è fatto poroso, e in molti casi è già stato superato.

L'integrazione di sistemi di Intelligenza Artificiale nei procedimenti amministrativi scolastici rappresenta qualcosa di qualitativamente diverso dalla mera _digitalizzazione_. Non si tratta più di automatizzare compiti ripetitivi, ma di delegare a un algoritmo funzioni che implicano valutazione, classificazione, persino scelta. Graduatorie, assegnazione di risorse, valutazione di istanze: l'atto amministrativo automatizzato non è più fantascienza, è cronaca. E con esso emergono interrogativi giuridici che il nostro ordinamento fatica ancora a metabolizzare.

La domanda, posta in termini crudi, è semplice: quando un algoritmo sbaglia, chi paga?

Sul tema dell'impatto trasformativo dell'IA nel mondo dell'istruzione si era già espresso con chiarezza il presidente dell'ANP Antonello Giannelli. Come approfondito nell'articolo Rivoluzione Didattica: La Visione di Giannelli Sull'Intelligenza Artificiale nella Scuola, la prospettiva di una scuola potenziata dall'IA porta con sé opportunità enormi ma anche rischi sistemici che non possono essere sottovalutati.

AI Act e scuola: i vincoli che cambiano le regole del gioco {#ai-act-e-scuola-i-vincoli-che-cambiano-le-regole-del-gioco}

Il Regolamento europeo sull'Intelligenza Artificiale (AI Act), entrato progressivamente in vigore, introduce un quadro normativo che tocca direttamente le istituzioni scolastiche. Non si tratta di disposizioni pensate esclusivamente per i colossi tecnologici: ogni soggetto pubblico che utilizza sistemi di IA per adottare decisioni che incidono sui diritti dei cittadini è chiamato a conformarsi.

L'AI Act classifica come ad alto rischio i sistemi di IA utilizzati nell'ambito dell'istruzione e della formazione professionale, in particolare quelli impiegati per:

* determinare l'accesso o l'ammissione a istituti di istruzione * valutare i risultati dell'apprendimento * orientare il percorso formativo degli studenti * monitorare comportamenti durante le prove d'esame

Per le scuole italiane questo significa, concretamente, che qualsiasi software basato su algoritmi di machine learning utilizzato per produrre o supportare atti amministrativi deve rispettare requisiti stringenti di trasparenza, tracciabilità e supervisione umana. Non un generico invito alla prudenza, ma un obbligo giuridico con potenziali conseguenze sanzionatorie.

Il nodo, tuttavia, è che molte istituzioni scolastiche stanno adottando strumenti digitali avanzati senza avere piena consapevolezza del perimetro regolatorio in cui si muovono. Stando a quanto emerge da diverse segnalazioni sindacali, la formazione specifica dei Dirigenti Scolastici su questi temi resta largamente insufficiente.

Il black box problem: quando nemmeno chi decide sa perché {#il-black-box-problem-quando-nemmeno-chi-decide-sa-perché}

È il cuore tecnico, e insieme filosofico, della questione. Il cosiddetto black box problem descrive una condizione ben nota agli informatici ma ancora poco familiare al mondo della pubblica amministrazione: i sistemi di IA più sofisticati, quelli basati su reti neurali profonde, producono risultati senza che sia possibile ricostruire in modo trasparente il percorso logico che li ha generati.

Detto altrimenti: l'algoritmo funziona, spesso bene, ma nessuno, nemmeno chi lo ha progettato, è in grado di spiegare esattamente perché ha prodotto un certo output piuttosto che un altro.

Trasferito nel contesto scolastico, il problema diventa esplosivo. Immaginiamo un sistema di IA che contribuisce a stilare una graduatoria interna, ad assegnare ore di sostegno, o a valutare la congruità di una richiesta di trasferimento. Se il risultato viene contestato, chi deve fornire la motivazione? E soprattutto, come si motiva una decisione che nemmeno la macchina sa giustificare in termini comprensibili all'essere umano?

La giurisprudenza amministrativa italiana, a partire dalla celebre sentenza del Consiglio di Stato n. 8472/2019 sul caso dell'algoritmo per la mobilità dei docenti, ha già chiarito un principio fondamentale: l'utilizzo di un algoritmo non esime l'amministrazione dall'obbligo di motivazione. Anzi, lo rafforza.

Motivazione dell'atto amministrativo: l'output non basta {#motivazione-dellatto-amministrativo-loutput-non-basta}

L'articolo 3 della Legge 241/1990 non ammette scorciatoie. Ogni provvedimento amministrativo deve essere sorretto da una motivazione adeguata, che indichi i presupposti di fatto e le ragioni giuridiche che hanno determinato la decisione. Un numero sputato fuori da un algoritmo, per quanto sofisticato, non soddisfa questo requisito.

Il punto merita di essere sottolineato con forza, perché nella prassi quotidiana il rischio è reale. Un Dirigente Scolastico che si limiti a recepire acriticamente l'output di un sistema automatizzato, apponendo la propria firma senza un'effettiva verifica, si espone a una doppia criticità: da un lato, il provvedimento è potenzialmente viziato per difetto di motivazione; dall'altro, la responsabilità ricade interamente su di lui.

La questione non è solo teorica. Con l'aumento dei ricorsi amministrativi legati ai procedimenti scolastici, come quelli connessi alle procedure concorsuali (si pensi alle vicende legate al Concorso PNRR 2: Successi tra gli Aspiranti Docenti nella Scuola dell'Infanzia e Primaria), il tema della trasparenza decisionale è destinato a diventare sempre più centrale nei contenziosi.

In termini pratici, ciò significa che ogni atto amministrativo supportato dall'IA dovrebbe:

* esplicitare che è stato utilizzato un sistema algoritmico * indicare i criteri e i parametri su cui l'algoritmo opera * dimostrare che un funzionario ha effettivamente valutato l'output prima di adottare il provvedimento * garantire al destinatario la possibilità di contestare la decisione con piena conoscenza dei fattori che l'hanno determinata

Responsabilità giuridica: il Dirigente Scolastico resta al centro {#responsabilità-giuridica-il-dirigente-scolastico-resta-al-centro}

Un algoritmo non ha personalità giuridica. Non può essere citato in giudizio, non può essere destinatario di una sanzione disciplinare, non risponde davanti alla Corte dei Conti. Per quanto possa apparire ovvio, le implicazioni pratiche di questo principio sono tutt'altro che banali.

L'imputazione giuridica di qualsiasi atto amministrativo, anche quando generato o supportato da un sistema di Intelligenza Artificiale, rimane in capo all'amministrazione e, nel caso della scuola, al Dirigente Scolastico quale rappresentante legale dell'istituzione. È lui il soggetto che firma, che risponde, che eventualmente subisce le conseguenze di un errore.

Questo principio, confermato dalla giurisprudenza e ora rafforzato dall'AI Act, crea una situazione paradossale. Il Dirigente è chiamato a rispondere di decisioni che, almeno in parte, sono state elaborate da un sistema le cui logiche interne potrebbero essergli opache. È come firmare un documento scritto in una lingua che non si padroneggia completamente.

La responsabilità, peraltro, non si limita al piano amministrativo. In caso di danno erariale, di violazione dei diritti degli studenti o del personale, o di trattamento illecito dei dati personali, le conseguenze possono estendersi al piano disciplinare, contabile e, nei casi più gravi, penale.

Supervisione umana: obbligo o illusione? {#supervisione-umana-obbligo-o-illusione}

L'AI Act è chiaro: per i sistemi ad alto rischio, tra cui quelli utilizzati in ambito educativo, è obbligatoria una supervisione umana effettiva. Non un controllo formale, non una firma apposta distrattamente in calce a un documento generato dalla macchina, ma una verifica sostanziale che presuppone competenza, tempo e strumenti adeguati.

Ma qui si apre il divario tra norma e realtà. I Dirigenti Scolastici italiani gestiscono già oggi carichi di lavoro che rasentano il limite della sostenibilità. Tra adempimenti burocratici, gestione del personale, rapporti con le famiglie e responsabilità sulla sicurezza, chiedere loro di diventare anche supervisori competenti di sistemi algoritmici significa, nei fatti, aggiungere un ulteriore livello di complessità a una professione già sotto enorme pressione.

Le tensioni che attraversano il mondo della scuola, del resto, non mancano. Lo dimostra la mobilitazione sindacale che ha portato allo Sciopero Nazionale della Scuola il 7 Maggio: Prove Invalsi e Indicazioni Nazionali sotto Accusa, segno di un malessere diffuso che investe anche il rapporto tra innovazione tecnologica e condizioni di lavoro.

Perché la supervisione umana sia reale e non solo dichiarata servono almeno tre condizioni:

* Formazione specifica dei dirigenti e del personale amministrativo sull'IA e sui suoi limiti * Strumenti di explainability, ovvero software progettati per rendere comprensibili le decisioni algoritmiche * Risorse organizzative, a partire dal personale dedicato, che consentano un controllo effettivo senza paralizzare l'attività amministrativa

Senza questi presupposti, la supervisione umana rischia di restare una clausola di stile, buona per i documenti ufficiali ma priva di sostanza operativa.

Le ricadute concrete sulla vita scolastica {#le-ricadute-concrete-sulla-vita-scolastica}

Non si parla di scenari futuristici. Gli algoritmi sono già presenti nella gestione della scuola italiana, dalla composizione delle classi alla gestione delle supplenze attraverso piattaforme digitali, dall'elaborazione dei dati per l'orientamento scolastico fino ai sistemi di rilevazione delle presenze.

Ogni volta che uno di questi sistemi produce un risultato che incide sulla sfera giuridica di uno studente, di una famiglia o di un lavoratore della scuola, si attiva la catena della responsabilità amministrativa. E ogni volta che quell'output non è accompagnato da una motivazione trasparente e verificabile, si apre una potenziale falla nel sistema di garanzie che il nostro ordinamento costruisce attorno al cittadino.

La sfida, per il sistema scolastico italiano, non è rifiutare l'Intelligenza Artificiale. Sarebbe anacronistico e controproducente. La sfida è governarla, costruendo le competenze, le procedure e le tutele necessarie affinché l'innovazione tecnologica non si traduca in una erosione silenziosa dei diritti. Il Dirigente Scolastico si trova, ancora una volta, sulla linea di faglia tra le aspettative del legislatore e la realtà delle scuole. Stavolta, però, la posta in gioco è particolarmente alta: non si tratta solo di efficienza amministrativa, ma del rapporto stesso tra cittadino e pubblica amministrazione nell'era delle macchine che decidono.

Pubblicato il: 9 aprile 2026 alle ore 07:59