{/* Extracted from Header.astro - Use appropriate classes/styles if animations needed */}

ChatGPT adult mode, nuovo rinvio: OpenAI ancora alle prese con verifica dell'età e rischi legali

È il secondo slittamento per la funzione dedicata ai contenuti espliciti. Pesano le difficoltà tecniche nell'accertare la maggiore età degli utenti e il nodo irrisolto dei contenuti potenzialmente illegali generati dall'intelligenza artificiale.

* Il secondo rinvio: cosa sta succedendo * Il nodo della verifica dell'età * Contenuti espliciti e rischio legale: il terreno minato * Le priorità di OpenAI e lo scenario globale * Cosa cambia per gli utenti

Il secondo rinvio: cosa sta succedendo {#il-secondo-rinvio-cosa-sta-succedendo}

OpenAI ha ufficialmente comunicato un nuovo rinvio per il cosiddetto adult mode di ChatGPT, la funzionalità pensata per consentire la generazione di contenuti espliciti destinati esclusivamente a utenti adulti verificati. Si tratta del secondo slittamento: il lancio, inizialmente atteso per dicembre 2025, era già stato posticipato senza una nuova data certa. Ora, a marzo 2026, la situazione non si è sbloccata.

Un portavoce dell'azienda ha dichiarato che il team di sviluppo si concentrerà su "priorità più alte", senza tuttavia specificare quali siano queste priorità né fornire una tempistica aggiornata per il rilascio.

La vicenda racconta qualcosa di più ampio rispetto a un semplice ritardo tecnico. Racconta la difficoltà strutturale — tecnica, giuridica, etica — che le grandi aziende dell'intelligenza artificiale incontrano ogni volta che tentano di avvicinarsi al confine dei contenuti sensibili.

Il nodo della verifica dell'età {#il-nodo-della-verifica-delletà}

Al centro del rinvio c'è un problema che chiunque si occupi di regolamentazione digitale conosce bene: come si verifica, in modo affidabile e su scala globale, che un utente sia maggiorenne?

OpenAI sta sperimentando diversi modelli di verifica dell'età in alcuni paesi, ma stando a quanto emerge nessuno dei sistemi testati finora garantisce un livello di accuratezza sufficiente. Le soluzioni sul tavolo sono le solite:

* Verifica tramite documento d'identità, efficace ma invasiva sul piano della privacy * Stima dell'età via riconoscimento facciale, tecnologia controversa e vietata o fortemente limitata in diversi ordinamenti europei * Conferma tramite carta di credito, facilmente aggirabile * Sistemi di attestazione da parte di terzi, ancora in fase embrionale

Il problema non è nuovo. L'Unione Europea, con il Digital Services Act e il regolamento sull'intelligenza artificiale (AI Act), ha posto vincoli stringenti sulla protezione dei minori online, e l'Italia stessa — dopo il caso del blocco temporaneo di ChatGPT da parte del Garante per la protezione dei dati personali nel 2023 — resta un osservato speciale per OpenAI. Qualsiasi meccanismo di age verification dovrà reggere allo scrutinio dei regolatori europei, e non è un'impresa banale.

Contenuti espliciti e rischio legale: il terreno minato {#contenuti-espliciti-e-rischio-legale-il-terreno-minato}

La verifica dell'età, però, è solo metà del problema. L'altra metà — forse la più insidiosa — riguarda la natura stessa dei contenuti che un adult mode potrebbe generare.

Un modello linguistico di grandi dimensioni come ChatGPT non "sceglie" cosa produrre nello stesso modo in cui lo fa un essere umano. Rimuovere i filtri sui contenuti espliciti significa, di fatto, aprire la porta a output che potrebbero sconfinare nell'illegalità: materiale pedopornografico generato artificialmente, contenuti diffamatori, incitamento alla violenza sessuale. Anche in assenza di immagini reali, diverse giurisdizioni — compresa quella italiana — considerano penalmente rilevante la produzione di materiale di questo tipo.

Le preoccupazioni legali non sono teoriche. Negli Stati Uniti e in Europa sono già in corso procedimenti che cercano di definire la responsabilità delle aziende AI per i contenuti generati dai loro sistemi. OpenAI sa bene che un passo falso su questo fronte potrebbe tradursi in cause miliardarie e in un danno reputazionale difficile da recuperare.

Vale la pena ricordare come la rivoluzione dell'AI stia già producendo effetti dirompenti ben oltre il settore tecnologico, con ricadute sui mercati finanziari e sul dibattito regolatorio globale. L'adult mode si inserisce in questo scenario di crescente tensione tra innovazione e controllo.

Le priorità di OpenAI e lo scenario globale {#le-priorità-di-openai-e-lo-scenario-globale}

La formula usata dal portavoce — "ci concentreremo su priorità più alte" — merita una lettura attenta. OpenAI è impegnata su più fronti simultaneamente: il rafforzamento delle capacità di ragionamento dei propri modelli, l'espansione commerciale tramite le API, la competizione sempre più serrata con Google, Anthropic, Meta e i nuovi attori cinesi.

In questo contesto, l'_adult mode_ rappresenta una funzionalità ad alto rischio e a rendimento incerto. Il potenziale bacino di utenti interessati è significativo — lo dimostra il successo di piattaforme concorrenti meno scrupolose — ma i costi regolatori e reputazionali potrebbero superare i benefici. Non è un caso che la funzionalità continui a scivolare in fondo alla lista.

C'è poi un elemento geopolitico. I requisiti per la verifica dell'età variano enormemente da paese a paese: ciò che funziona negli Stati Uniti potrebbe essere illegale in Germania o insufficiente in Francia. Un lancio globale richiede un'infrastruttura di compliance che OpenAI, nonostante le sue risorse, non sembra ancora aver messo a punto.

Cosa cambia per gli utenti {#cosa-cambia-per-gli-utenti}

Per il momento, nulla. ChatGPT continua a operare con i filtri attualmente in vigore, che impediscono la generazione di contenuti sessualmente espliciti, violenti o altrimenti sensibili. Gli utenti che speravano nel rilascio dell'_adult mode_ dovranno attendere ancora, senza una data all'orizzonte.

La questione, però, resta aperta e va ben oltre OpenAI. Riguarda l'intero ecosistema dell'intelligenza artificiale generativa e il rapporto — ancora tutto da definire — tra libertà espressiva, protezione dei minori e responsabilità delle piattaforme. L'AI Act europeo, pienamente applicabile dal 2026, rappresenterà il primo vero banco di prova per queste tensioni.

Il rinvio dell'_adult mode_ non è una semplice nota a margine nella cronaca tecnologica. È il segnale che anche l'azienda più influente del settore riconosce, nei fatti, di non avere ancora le risposte giuste alle domande più difficili.

Pubblicato il: 9 marzo 2026 alle ore 09:41