Loading...
Perché l’Intelligenza Artificiale 'Indovina' invece di Dire la Verità: La Nuova Rivelazione di OpenAI sui Modelli Linguistici
Tecnologia

Perché l’Intelligenza Artificiale 'Indovina' invece di Dire la Verità: La Nuova Rivelazione di OpenAI sui Modelli Linguistici

Modelli linguistici, allucinazioni e falsi contenuti: lo studio OpenAI 2025 accende i riflettori sulle criticità dell’addestramento AI

Perché l’Intelligenza Artificiale 'Indovina' invece di Dire la Verità: La Nuova Rivelazione di OpenAI sui Modelli Linguistici

Indice

  • Introduzione allo studio OpenAI 2025
  • Come nascono le allucinazioni nei modelli linguistici AI
  • Il ruolo del pretraining nell’indovinare le risposte
  • I criteri di valutazione e la ricompensa del comportamento allucinatorio
  • Implicazioni pratiche: il 20% delle risposte potrebbe essere falso
  • Soluzioni proposte: premiare l'incertezza nei modelli
  • Analisi critica: quali rischi per la società e la scuola
  • Tendenze future nella valutazione dei modelli linguistici
  • Conclusioni e sintesi finale

Introduzione allo studio OpenAI 2025

Nel settembre 2025, OpenAI ha pubblicato uno studio di rilievo internazionale che sta facendo discutere la comunità scientifica, i professionisti dell’AI e le istituzioni educative. La ricerca, condotta da tre ricercatori di OpenAI e un professore del Georgia Tech, getta nuova luce sulle cosiddette "allucinazioni" prodotte dai moderni modelli di intelligenza artificiale generativa, come ChatGPT e i più recenti Large Language Models (LLM). Il tema principale? I modelli linguistici AI non sono bugiardi per caso: sono addestrati a tirare a indovinare, spesso producendo risposte «allucinate» che sembrano plausibili, ma sono in realtà inventate.

Si tratta di un difetto strutturale frutto dell’addestramento e della valutazione stessa degli algoritmi e non (solo) di limiti tecnici temporanei. L'articolo illustra come questo fenomeno sia oggi centrale nella discussione su affidabilità e sicurezza nell’uso dell’intelligenza artificiale, nei sistemi educativi, nei processi decisionali e nell’informazione pubblica.

Come nascono le allucinazioni nei modelli linguistici AI

Il termine hallucinations LLM o "allucinazioni dei modelli linguistici" è ormai parte del lessico tecnico della ricerca sui sistemi di intelligenza artificiale. Si riferisce alla tendenza dei modelli (come GPT-4, GPT-3.5 e successivi) a produrre dati falsi, imprecisi o inventati, pur presentandoli come se fossero veri. Ma da cosa deriva questa inclinazione? Secondo il recente studio OpenAI 2025, si tratta di una conseguenza diretta dei criteri di addestramento: i modelli vengono valutati e premiati per la loro capacità di "dare una risposta" piuttosto che ammettere la propria incertezza.

Questa impostazione si basa storicamente sulla ricerca della coerenza e della probabilità, favorendo quei risultati che sembrano più plausibili o che imitano meglio il linguaggio umano, anche quando ciò porta a proporre falsi contenuti AI.

La casistica delle risposte inventate

Per esempio, quando viene richiesto di fornire una data di nascita, un modello linguistico può "allucinare" il dato se non lo sa, inserendo un’informazione errata ma credibile. Secondo lo studio, ben il 20% delle risposte sulle date di compleanno sono state identificate come inventate dal modello AI, segnalando una criticità importante.

Il ruolo del pretraining nell’indovinare le risposte

Alla base di questa dinamica vi è la fase di pretraining. Durante questo stadio, i modelli vengono sottoposti a enormi moli di dati presi dal web, da libri, articoli e altre fonti, per imparare a "prevedere" la parola successiva in una frase - un processo che premia, di fatto, la generazione di risposte plausibili a domande, anche se la conoscenza non è completa o aggiornata.

Addestramento AI OpenAI: i dettagli

Il pretraining dei modelli linguistici OpenAI avviene tramite un criterio di ottimizzazione delle probabilità adattative, cioè scegliendo ogni volta la parola o la frase che meglio si inserisce nel contesto fornito, anche a costo di indovinare nei casi di dubbio. Questo processo è stato identificato dagli autori dello studio come il vero responsabile del fenomeno delle allucinazioni AI.

I criteri di valutazione e la ricompensa del comportamento allucinatorio

Uno degli aspetti più innovativi messi in luce dallo studio riguarda la valutazione dei modelli. Nella pratica, i sistemi sono testati su vasti dataset, e le risposte sono giudicate in termini di precisione statistica, fluidità e coerenza linguistica. Tuttavia, ciò premia involontariamente quei comportamenti in cui il modello "risponde comunque" piuttosto che ammettere un’incertezza.

Premi e penalità: come i modelli imparano a rispondere con sicurezza anche quando sbagliano

I criteri attuali, spesso basati su metriche numeriche e sulla quantità di risposte prodotte, non incentivano le risposte tipo «Non lo so» o «Le informazioni non sono disponibili». Anzi, in molti casi, le risposte incertezza AI vengono penalizzate dalle metriche di performance: una scelta che, nel tempo, ha rafforzato la tendenza a "tirare a indovinare", dando spazio ad allucinazioni AI e quindi a errori potenzialmente pericolosi.

Implicazioni pratiche: il 20% delle risposte potrebbe essere falso

La percentuale del 20% di risposte inventate evidenziata dallo studio errori modelli linguistici OpenAI non è un dettaglio trascurabile. Soprattutto in contesti delicati – come la scuola, la sanità, il giornalismo o la consulenza legale – anche un singolo errore può produrre danni significativi, diffusione di disinformazione, o decisioni inadeguate.

Scuola e università: il rischio educational

In ambito scolastico, si fa sempre più affidamento a strumenti basati su intelligenza artificiale per la ricerca, la scrittura di temi, la spiegazione di concetti complessi. Se una percentuale così alta di risposte può essere falsa, l’attenzione degli insegnanti deve restare alta e dovrebbe essere maggiore la formazione digitale degli studenti, sviluppando il pensiero critico rispetto all’automazione AI.

Settori critici: sanità, finanza e istituzioni

In medicina e finanza, la presenza di dati errati può portare a raccomandazioni cliniche sbagliate, diagnosi tralasciate, scelte di investimento non supportate dai dati. Per questo motivo, condividere trasparenza sui "punti ciechi" delle tecnologie AI è oggi una priorità.

Soluzioni proposte: premiare l'incertezza nei modelli

I ricercatori propongono una soluzione concreta: modificare i criteri di valutazione AI per rendere accettabili e premianti anche risposte come "Non lo so", sostenendo che questo contribuirebbe a ridurre drasticamente il fenomeno delle allucinazioni.

Criteri valutazione AI: le nuove linee guida

L’introduzione di nuovi criteri di valutazione che includano la capacità del modello di riconoscere l’assenza di informazioni firmerebbe una svolta nella storia dell’addestramento AI. Non solo si ridurrebbero i falsi contenuti, ma si favorirebbe anche un’adozione più responsabile e trasparente della tecnologia, aumentando la fiducia del pubblico verso i sistemi di intelligenza artificiale.

Prospettive educative e professionali

Da un punto di vista educativo e professionale, questa innovazione porterebbe a un salto di qualità nell’utilizzo consapevole dell’AI: i docenti potrebbero approfondire con gli studenti non solo il funzionamento dei modelli linguistici, ma anche le loro "debolezze" e i possibili bias, favorendo la crescita delle competenze digitali e dell’etica nell’uso della tecnologia.

Analisi critica: quali rischi per la società e la scuola

Il fenomeno delle allucinazioni nei modelli linguistici AI non riguarda soltanto l’accuratezza delle risposte, ma anche la fiducia della società nella tecnologia. Se il pubblico si accorge che il 20% dei dati proposti possono essere falsi, la percezione dell’AI – tuttora ammantata da aspettative di infallibilità – può cambiare drasticamente.

Fiducia, trasparenza e formazione

La soluzione non è solo tecnica. Serve più formazione per gli utilizzatori di AI, più rigore nelle fonti e nello sviluppo, e una comunicazione trasparente dei limiti della tecnologia. In particolare, le scuole e le università dovrebbero adottare una didattica attenta alle trappole dei contenuti generati da AI, affiancando agli strumenti digitali solide basi di metodo scientifico e pensiero critico.

Rischi di Dipendenza e Delega

Altro rischio collegato alle allucinazioni AI è la tendenza a "delegare" troppo il processo decisionale o cognitivo. Se si attribuisce all’automazione un valore eccessivamente "oracolare", senza mai mettere in discussione le risposte offerte, si può giungere a errori sistemici difficilmente correggibili una volta entrati nel flusso delle attività di studio e lavoro.

Tendenze future nella valutazione dei modelli linguistici

L’attenzione internazionale verso i criteri valutazione AI e i falsi contenuti AI è in costante crescita. Si moltiplicano le iniziative di ricerca, le policy industriali e le linee guida legislative per garantire maggiore responsabilità nei sistemi di intelligenza artificiale. Alcuni laboratori stanno già sperimentando schemi di valutazione che promuovono la trasparenza, penalizzando l’eccesso di sicurezza ingiustificata nei modelli.

La risposta di OpenAI e delle altre Big Tech

OpenAI, con la pubblicazione dello studio, dimostra una significativa apertura alla discussione pubblica sui limiti e i rischi dell’AI. Anche altri attori – Google DeepMind, Meta AI, Microsoft – stanno investendo nella riduzione delle hallucinations LLM e nel potenziamento delle tecnologie di verifica dei dati (fact-checking automatico, cross-referencing delle fonti, filtri sulle informazioni non verificate).

Conclusioni e sintesi finale

In sintesi, il recente studio OpenAI 2025 rappresenta una svolta fondamentale nella comprensione degli errori strutturali dei moderni modelli linguistici. Il fenomeno delle allucinazioni non è solo una curiosità tecnica, ma un problema che nasce dalle stesse regole di addestramento e valutazione dei sistemi di AI. Premiare l’incertezza, invece che la pura capacità di risposta, potrebbe costituire la chiave per modelli più affidabili, trasparenti e utili nella società, nella scuola e nel mondo dell’informazione.

Alla luce di queste scoperte, si impongono tre raccomandazioni fondamentali:

  1. Aggiornare i criteri di valutazione AI per incentivare anche le risposte che ammettono mancanza di conoscenza.
  2. Introdurre formazione obbligatoria su limiti, bias e verifica delle fonti nei percorsi scolastici e professionali.
  3. Promuovere trasparenza e responsabilità nell’utilizzo dei modelli linguistici, soprattutto in contesti delicati come scuola, salute e finanza.

Solo in questo modo sarà possibile fare dell’intelligenza artificiale uno strumento davvero strategico per la società, evitando di perpetuare il rischio di una "macchina che indovina" invece di una macchina che informa davvero.

Pubblicato il: 18 settembre 2025 alle ore 12:23

Redazione EduNews24

Articolo creato da

Redazione EduNews24

Articoli Correlati