* La svolta di Wikipedia: basta testi scritti dall'IA * Il problema delle allucinazioni e delle fonti fantasma * Cosa resta consentito: i confini del nuovo regolamento * La posizione della Wikimedia Foundation * Una questione che riguarda tutta la ricerca online
La svolta di Wikipedia: basta testi scritti dall'IA {#la-svolta-di-wikipedia-basta-testi-scritti-dallia}
Wikipedia ha detto no. L'enciclopedia più consultata al mondo, quella che per oltre vent'anni ha scommesso sulla collaborazione volontaria di milioni di utenti, ha deciso di tracciare una linea netta: i contenuti generati dall'intelligenza artificiale non sono più ammessi nella redazione o nella modifica degli articoli. La nuova politica editoriale, ufficializzata nelle scorse settimane, rappresenta una delle prese di posizione più significative nel panorama dell'informazione digitale globale.
Non si tratta di una chiusura ideologica nei confronti della tecnologia. La decisione nasce da un problema concreto, documentato e sempre più difficile da ignorare: i testi prodotti dai modelli di linguaggio di grandi dimensioni, i cosiddetti _Large Language Models_, presentano tassi di errore incompatibili con gli standard di affidabilità che Wikipedia si è imposta fin dalla sua fondazione.
La comunità dei _wikipediani_, dopo mesi di discussione interna, ha raggiunto un consenso chiaro. Chi contribuisce all'enciclopedia deve farlo con le proprie competenze, le proprie ricerche, le proprie verifiche. Non delegando la scrittura a un algoritmo.
Il problema delle allucinazioni e delle fonti fantasma {#il-problema-delle-allucinazioni-e-delle-fonti-fantasma}
Il cuore della questione ha un nome ormai noto a chiunque si occupi di tecnologia: le allucinazioni. Con questo termine si indica la tendenza dei modelli di IA generativa a produrre informazioni plausibili nell'aspetto ma del tutto inventate nella sostanza. Un fenomeno particolarmente insidioso quando si parla di un'enciclopedia.
Stando a quanto emerge dalle analisi condotte dalla comunità editoriale di Wikipedia, gli articoli generati tramite IA contenevano con frequenza allarmante:
* Riferimenti bibliografici inesistenti, costruiti combinando nomi reali di autori con titoli di pubblicazioni mai scritte * Dati statistici privi di riscontro, presentati con una precisione che li rendeva apparentemente credibili * Citazioni attribuite a fonti autorevoli che, una volta verificate, risultavano completamente fabbricate
Il problema non è solo tecnico. È epistemologico. Wikipedia fonda la propria credibilità sulla verificabilità: ogni affermazione deve essere supportata da fonti controllabili. Quando un modello di IA inventa una fonte che non esiste, mina alla radice il patto di fiducia tra l'enciclopedia e i suoi lettori. E considerando che Wikipedia viene consultata quotidianamente da studenti, ricercatori e professionisti, anche nel contesto dell'istruzione italiana, la posta in gioco è tutt'altro che marginale.
Va detto che il fenomeno delle allucinazioni dell'intelligenza artificiale non riguarda soltanto Wikipedia. La questione della veridicità dei contenuti generati automaticamente investe ormai l'intero ecosistema dell'informazione digitale, dalla ricerca accademica al giornalismo, fino ai materiali didattici utilizzati nelle scuole e nelle università.
Cosa resta consentito: i confini del nuovo regolamento {#cosa-resta-consentito-i-confini-del-nuovo-regolamento}
Sarebbe impreciso parlare di un divieto totale e indiscriminato. La nuova politica editoriale opera distinzioni importanti. Ciò che viene bandito è l'utilizzo dell'IA per scrivere articoli da zero o per modificare sostanzialmente il contenuto di voci esistenti. In altre parole, non è più accettabile incollare su Wikipedia il testo prodotto da un chatbot, nemmeno dopo una revisione superficiale.
Restano invece consentiti alcuni interventi minori, a condizione che siano rigorosamente supervisionati da un contributore umano. Tra questi:
* Correzioni di natura stilistica o grammaticale * Suggerimenti di riformulazione per migliorare la leggibilità di passaggi già verificati * Assistenza nella traduzione, purché il risultato finale venga controllato parola per parola
Il principio guida è semplice: l'essere umano deve mantenere il controllo editoriale pieno su ogni contenuto pubblicato. L'IA può essere uno strumento ausiliario, mai un autore autonomo. Una distinzione sottile ma decisiva, che richiama per certi versi il dibattito in corso anche nel mondo accademico italiano sull'uso dei modelli generativi nella stesura di tesi e pubblicazioni scientifiche.
La posizione della Wikimedia Foundation {#la-posizione-della-wikimedia-foundation}
La Wikimedia Foundation, l'organizzazione no-profit che sostiene l'infrastruttura di Wikipedia senza intervenire direttamente nei contenuti editoriali, ha chiarito la propria posizione con una nota ufficiale. La Fondazione riconosce che alcune forme limitate di utilizzo dell'intelligenza artificiale possono ancora essere ammesse, a patto che rispettino i principi fondamentali del progetto: neutralità_, _verificabilità e _trasparenza_.
È un equilibrio delicato. Da un lato, la Wikimedia Foundation non intende chiudere la porta a ogni innovazione tecnologica. Dall'altro, prende atto che la tecnologia attuale non è in grado di garantire gli standard qualitativi necessari per un progetto enciclopedico. Come sottolineato da diversi membri della comunità, il problema non è l'IA in sé, ma l'IA _oggi_, con i suoi limiti strutturali nella gestione delle fonti e nella distinzione tra fatti e costruzioni linguistiche verosimili.
Questa posizione riflette un atteggiamento pragmatico. Non una condanna di principio, ma una valutazione basata sull'evidenza. Del resto, anche in ambiti molto diversi dalla scrittura enciclopedica, la comunità scientifica internazionale sta affrontando sfide analoghe legate all'affidabilità dei risultati prodotti con il supporto dell'IA, come dimostrano le recenti scoperte sulle microplastiche in Antartide, dove la qualità e la verificabilità dei dati raccolti restano il fondamento di ogni conclusione scientifica credibile.
Una questione che riguarda tutta la ricerca online {#una-questione-che-riguarda-tutta-la-ricerca-online}
La decisione di Wikipedia non nasce nel vuoto. Si inserisce in un contesto più ampio di ripensamento del rapporto tra intelligenza artificiale e produzione di conoscenza. Negli ultimi mesi, riviste accademiche, piattaforme editoriali e istituzioni educative di mezzo mondo hanno iniziato a introdurre regolamentazioni simili, con gradi diversi di rigore.
Nel sistema universitario italiano, per esempio, il dibattito sull'uso dell'IA nella didattica e nella ricerca è tutt'altro che risolto. Molti atenei hanno pubblicato linee guida, ma manca ancora un quadro normativo uniforme. La mossa di Wikipedia potrebbe fungere da catalizzatore, offrendo un precedente autorevole a chi chiede regole più chiare.
C'è poi una dimensione che riguarda direttamente gli studenti. Wikipedia, piaccia o meno, resta uno dei punti di partenza più frequenti per qualsiasi ricerca. Se i suoi contenuti fossero inquinati da testi generati artificialmente, con fonti inventate e dati non verificabili, le conseguenze sulla qualità della formazione sarebbero significative. Non è un caso che la nuova ricerca internazionale sulla salute mentale materna, ad esempio, abbia potuto raggiungere risultati rilevanti proprio grazie a un approccio metodologico fondato sulla rigorosità delle fonti e sulla trasparenza dei dati.
La questione, in fondo, è una sola: nell'era dell'intelligenza artificiale generativa, chi garantisce che ciò che leggiamo sia vero? Wikipedia ha scelto di rispondere affidandosi ancora agli esseri umani. Con tutti i loro limiti, ma anche con la loro capacità di verificare, dubitare e correggere. Una scelta che, nel panorama attuale, ha il sapore di una dichiarazione di principio.