Un'analisi condotta da NewsGuard ha fatto emergere una preoccupante infiltrazione di disinformazione nei sistemi di intelligenza artificiale, in particolare nei chatbot, utilizzati da milioni di utenti in tutto il mondo. Sono stati rilevati ben 3.600.000 articoli di propaganda pro Cremlino, che hanno contribuito a modellare e distorcere le informazioni fornite da questi strumenti di comunicazione automatizzati.
NewsGuard ha testato dieci dei principali chatbot attualmente disponibili sul mercato e ha scoperto che un significativo 33% delle risposte generate conteneva false narrazioni, suggerendo così una permeabilità all'influenza esterna che potrebbe minacciare l'integrità delle informazioni.
Un elemento chiave nello studio è stata la rete di disinformazione identificata come Pravda, che ha diffuso un numero allarmante di 207 affermazioni false. Queste narrazioni includono tesi infondate riguardanti presunti laboratori segreti di armi biologiche in Ucraina, un tema ricorrente nella propaganda russa intesa a giustificare azioni belliche e a distorcere la realtà del conflitto in corso.
L'indagine di NewsGuard, pubblicata il 8 marzo 2025 a Roma, solleva interrogativi importanti sul ruolo che i chatbot, sempre più utilizzati in ambito educativo e informativo, possono giocare nella diffusione di informazioni errate e fuorvianti. La capacità di questi sistemi di apprendere e adattarsi si rivela, in questo caso, un'arma a doppio taglio, poiché possono assimilare contenuti non verificati e farli propri, contribuendo a perpetuare false narrazioni a un pubblico globalmente vulnerabile.
Questa situazione evidenzia l'urgenza di misure più efficaci per la verifica dei contenuti e la necessità di un monitoraggio continuo delle informazioni immesse nei sistemi di intelligenza artificiale. In un'epoca in cui la tecnologia permea ogni aspetto della vita quotidiana, garantire l'affidabilità dei contenuti generati automaticamente diventa cruciale per la salute democratica e l'informazione critica.