L’Antitrust indaga su DeepSeek: mancano avvisi sulle ‘allucinazioni’ dell’IA
Indice
- Introduzione: L’indagine Antitrust su DeepSeek
- Cos’è DeepSeek e perché interessa all’Autorità Garante
- Le ‘allucinazioni’ dell’IA: cosa sono e perché preoccupano
- I dettagli dell’istruttoria dell’Antitrust contro DeepSeek
- Hangzhou DeepSeek e Beijing DeepSeek: le società nel mirino
- Pratiche scorrette e trasparenza: la posizione dell’Autorità garante concorrenza
- DeepSeek e la questione dei disclaimer sulle allucinazioni
- Impatti sulle ricerche online e sulla fiducia degli utenti
- Altri casi simili e precedenti esperienze con IA
- L’importanza della trasparenza nei modelli di IA generativa
- Possibili sviluppi e sanzioni future
- La risposta di DeepSeek alle accuse
- Le opinioni degli esperti su DeepSeek allucinazioni e responsabilità
- Considerazioni etiche: IA, informazione e protezione dell’utente
- Conclusioni: il valore della trasparenza e del controllo nell’era dell’intelligenza artificiale
Introduzione: L’indagine Antitrust su DeepSeek
L’Autorità garante della concorrenza e del mercato (AGCM) ha recentemente avviato una severa istruttoria nei confronti di DeepSeek, un colosso dell’intelligenza artificiale con due sedi principali a Hangzhou e Pechino. I riflettori sono puntati su presunte pratiche scorrette nell’informare gli utenti sull’affidabilità delle risposte generate dai modelli di IA, in particolare per l’assenza di chiari disclaimer relativi alle cosiddette “allucinazioni” delle macchine. Questo intervento evidenzia una crescente attenzione su come le tecnologie basate sull’intelligenza artificiale siano gestite e regolate per garantire trasparenza e correttezza verso gli utenti finali.
L’istruttoria Antitrust DeepSeek, ufficialmente comunicata lo scorso 17 giugno 2025 a Roma, si inserisce in un contesto internazionale di rapido sviluppo dell’IA e di crescenti pressioni normative per tutelare cittadini e consumatori da rischi legati a informazioni distorte o non veritiere. In particolare, l’organismo mira a verificare se la mancanza di avvertimenti sugli errori (“allucinazioni”) delle risposte IA costituisca una pratica commerciale scorretta.
Cos’è DeepSeek e perché interessa all’Autorità Garante
DeepSeek è tra i principali attori mondiali nel campo della ricerca digitale assistita da intelligenza artificiale. I suoi prodotti, largamente diffusi tra professionisti, studenti e imprese, offrono motori di ricerca basati su modelli IA capaci di analizzare, sintetizzare e produrre informazioni su richiesta degli utenti. Le società coinvolte nell’indagine sono Hangzhou DeepSeek e Beijing DeepSeek, esponenti di punta di una nuova generazione di strumenti digitali che promettono efficacia e rapidità, ma non sono esenti da errori e imprecisioni.
L’interesse dell’Autorità garante concorrenza nasce dal potenziale impatto che questo tipo di sistemi può esercitare sulla formazione dell’opinione pubblica, sulla qualità dell’informazione e, soprattutto, sulla tutela del consumatore. In base alle prime evidenze raccolte, DeepSeek non segnalerebbe adeguatamente i limiti dei propri modelli di IA, esponendo l’utente al rischio di ricevere informazioni fuorvianti senza la consapevolezza di tali rischi.
Le ‘allucinazioni’ dell’IA: cosa sono e perché preoccupano
Un termine ormai comune nel dibattito sull’intelligenza artificiale è quello delle “allucinazioni”. In ambito IA, per “allucinazione” si intende la produzione di contenuti o risposte falsi, inesatti o totalmente inventati dai modelli generativi, spesso in modo convincente e realistico. Tali errori possono derivare da limiti nei dati su cui il modello è stato addestrato, errori strumentali o perfino da malintesi nell’interpretazione della richiesta.
Gli effetti di questo fenomeno sono potenzialmente dannosi: senza un adeguato disclaimer IA DeepSeek, l’utente può credere erroneamente nell’affidabilità assoluta della risposta, rischiando di prendere decisioni errate sia in ambito lavorativo che personale.
Analizzare con attenzione i rischi legati alle allucinazioni IA è oggi essenziale per tutte le realtà che intendono utilizzare, promuovere o sviluppare tecnologie simili.
I dettagli dell’istruttoria dell’Antitrust contro DeepSeek
L’istruttoria avviata dall’Autorità Garante si concentra principalmente sulla presunta omissione di informazioni rilevanti da parte dei servizi forniti da DeepSeek.
Gli elementi salienti dell’indagine, secondo fonti istituzionali, riguardano:
- l’assenza di chiari avvertimenti o disclaimer relativamente alle allucinazioni dei modelli IA presenti sul sito e nelle finestre di dialogo di DeepSeek;
- il potenziale impatto di tali omissioni sulla percezione dell’affidabilità delle risposte da parte dell’utente;
- la valutazione di una possibile pratica commerciale scorretta ai sensi della normativa vigente sulla tutela del consumatore.
L’organismo intende dunque verificare se l’assenza di trasparenza danneggi in modo concreto la libertà di scelta e la corretta informazione dell’utente finale.
Hangzhou DeepSeek e Beijing DeepSeek: le società nel mirino
Hangzhou DeepSeek e Beijing DeepSeek rappresentano centri nevralgici della ricerca e dello sviluppo in campo IA in Cina. Entrambe le sedi gestiscono una vasta gamma di prodotti e soluzioni commerciali destinate sia al mercato asiatico che globale.
Secondo le prime dichiarazioni ufficiali, le due società avrebbero affidato ai rispettivi team di legal e compliance il compito di rispondere in modo dettagliato e circostanziato ai rilievi dell’Autorità italiana. Rimane tuttavia l’evidenza che la mancata comunicazione dei limiti dei software IA pone difficili questioni etiche e normative, non solo a livello nazionale ma anche internazionale.
Pratiche scorrette e trasparenza: la posizione dell’Autorità garante concorrenza
L’Autorità garante concorrenza sottolinea l’obbligo — sancito dal codice del consumo e dalle linee guida UE — di fornire un’informazione chiara e trasparente su limiti, rischi e potenziali difetti delle tecnologie IA. In assenza di tale trasparenza, la pratica commerciale viene considerata scorretta, in quanto suscettibile di indurre in errore il consumatore.
Questa impostazione innalza la soglia di controllo richiesto ai fornitori di tecnologie avanzate e, in particolare, dei modelli IA in grado di influenzare direttamente le decisioni degli utenti.
DeepSeek e la questione dei disclaimer sulle allucinazioni
Uno dei punti chiave dell’indagine Antitrust DeepSeek è proprio la totale assenza, sulle interfacce di DeepSeek, di avvisi o disclaimer che informino l’utente sul rischio di “allucinazioni” o errori dovuti al funzionamento della IA. Le finestre di dialogo consultate dagli utenti non riportano nessun messaggio inerente la natura generativa e potenzialmente fallace delle risposte prodotte dai sistemi.
Questo aspetto è stato considerato dall’AGCM come potenzialmente lesivo dei diritti degli utenti e, secondo le prime ricostruzioni, sarebbe in contrasto con le migliori pratiche internazionali suggerite, tra gli altri, dal Comitato Europeo per la Protezione dei Dati e da altre autorità di settore.
Impatti sulle ricerche online e sulla fiducia degli utenti
La mancata comunicazione dei limiti dei modelli IA può avere un effetto considerevole sulla fiducia e sulle abitudini degli utenti. In particolare:
- cresce il rischio che informazioni false o inaccurate vengano considerate attendibili;
- si riduce la capacità degli utenti di adottare un approccio critico nelle ricerche online;
- si mina la credibilità dell’intero ecosistema IA, favorendo una cultura della diffidenza e della disinformazione.
Secondo numerosi esperti, una informazione trasparente sui limiti e sul fenomeno delle “allucinazioni” nel contesto delle pratiche scorrette IA rappresenta uno strumento indispensabile per la tutela dei cittadini e per il corretto funzionamento delle nuove tecnologie.
Altri casi simili e precedenti esperienze con IA
L’indagine a carico di DeepSeek si inserisce in una serie di casi analoghi verificatisi a livello globale. Diverse autorità, sia europee che extraeuropee, hanno già affrontato la questione della trasparenza dei modelli IA e della responsabilità nella gestione delle false informazioni.
Alcuni esempi recenti includono:
- l’intervento dell’Autorità francese nei confronti di fornitori IA per mancanza di avvertimenti sugli errori;
- le raccomandazioni della Federal Trade Commission (FTC) statunitense in tema di trasparenza algoritmica;
- le azioni delle Data Protection Authority di Regno Unito e Germania a proposito di IA generative.
Questi precedenti rafforzano la posizione dell’Antitrust italiana nel richiedere standard elevati di chiarezza e responsabilità.
L’importanza della trasparenza nei modelli di IA generativa
La questione posta dall’istruttoria DeepSeek chiama in causa il tema della trasparenza nell’uso delle tecnologie IA generative. Solo attraverso avvisi chiari e facilmente accessibili si può garantire che l’utente sia davvero consapevole dei potenziali rischi legati all’impiego di tali strumenti.
Le linee guida più recenti in materia di IA — tanto a livello europeo quanto internazionale — spingono in modo deciso verso l’obbligo di informativa trasparente e specifica, specie nei casi in cui il contenuto generato possa contenere errori, imprecisioni o, appunto, “allucinazioni”.
Possibili sviluppi e sanzioni future
La fase istruttoria avviata contro DeepSeek potrebbe condurre, qualora venissero confermate le ipotesi iniziali, a diverse misure correttive. Tra queste:
- l’imposizione obbligatoria di disclaimer IA DeepSeek sulle finestre di dialogo e sulle risposte del sistema;
- sanzioni amministrative pecuniarie proporzionate alla gravità del comportamento riscontrato;
- prescrizioni specifiche sulle modalità di informazione all’utente.
Questo genere di interventi potrebbe presto diventare la norma anche per altre aziende del comparto IA, determinando una svolta nel modo di presentare e gestire i prodotti digitali al pubblico.
La risposta di DeepSeek alle accuse
Al momento della pubblicazione, DeepSeek non ha rilasciato dichiarazioni ufficiali in merito al procedimento. Tuttavia, ambienti vicini all’azienda cinese fanno sapere che è in corso una verifica interna sui processi di comunicazione e sulla presenza di avvisi all’utenza.
Secondo previsioni di analisti indipendenti, non è da escludere una revisione volontaria delle interfacce utente e l’introduzione, in tempi brevi, di adeguati disclaimer o avvertimenti sugli eventuali limiti dei modelli.
Le opinioni degli esperti su DeepSeek allucinazioni e responsabilità
L’indagine avviata dall’Antitrust DeepSeek ha già suscitato numerosi commenti tra accademici, professionisti e stakeholder del settore IA.
In particolare:
- gli esperti sottolineano la necessità di responsabilità da parte dei fornitori tecnologici;
- viene rimarcata l’importanza strategica di distinguere tra contenuti certificati e risposte generative AI;
- numerose società della filiera IA stanno già implementando sistemi di alert automatici sugli errori o sulle potenziali “allucinazioni”, a tutela sia dell’utente che della propria reputazione.
Nel contesto competitivo globale, la trasparenza si conferma valore chiave per conquistare e mantenere la fiducia della clientela.
Considerazioni etiche: IA, informazione e protezione dell’utente
La vicenda DeepSeek rilancia, infine, il dibattito sul ruolo etico delle imprese tecnologiche.
Oggi, assicurare un’informazione corretta e trasparente non è solo un obbligo normativo ma un vero e proprio imperativo morale, specie in settori ad alto impatto come la ricerca, la sanità, la finanza e l’istruzione.
Alcuni principi chiave richiamati dagli esperti includono:
- diritto all’informazione completa e non distorta;
- responsabilità proattiva da parte di chi sviluppa e commercializza sistemi IA;
- educazione digitale indirizzata sia all’utenza professionale che privata.
Conclusioni: il valore della trasparenza e del controllo nell’era dell’intelligenza artificiale
L’istruttoria avviata dall’Autorità garante concorrenza contro DeepSeek costituisce uno snodo cruciale nel percorso verso una regolamentazione efficace e bilanciata dell’intelligenza artificiale. I fatti contestati — la mancata comunicazione di rischi sulle “allucinazioni” IA — rappresentano un campanello d’allarme per tutto il comparto tecnologico.
In un momento di straordinaria evoluzione dei modelli generativi, la chiarezza e la trasparenza nei confronti dell’utente appaiono requisiti imprescindibili. Solo così sarà possibile combinare i vantaggi della rivoluzione digitale con una reale tutela dei diritti e delle libertà di ciascun individuo.
Il futuro dell’IA, pertanto, dipenderà dalla capacità di integrare innovazione, etica e protezione, offrendo strumenti potenti ma anche sicuri, affidabili e comprensibili a chiunque.