Character.AI in tribunale: quando il chatbot finge di essere psichiatra
Il 5 maggio 2026, la Pennsylvania ha intentato una causa contro Character Technologies Inc. per esercizio abusivo della professione medica: i chatbot creati sulla piattaforma Character.AI si presentavano come psichiatri abilitati, in particolare un personaggio chiamato "Emilie" ha effettuato oltre 45.500 interazioni ingannevoli presentando un numero di licenza inesistente. Il governatore Josh Shapiro ha definito l'azione come una prima storica negli Stati Uniti, mentre l'azienda sostiene che i personaggi sono a scopo di intrattenimento e corredati da disclaimer, ma ciò non ha convinto le autorità. L'indagine ha rivelato come un investigatore abbia interagito con "Emilie", che ha risposto a domande cliniche, ha parlato di depressione e persino suggerito valutazioni farmacologiche, sostenendo di essere autorizzata a esercitare. La verifica del numero di licenza ha confermato l'inesistenza, confermando l'illecito. La piattaforma, con oltre 20 milioni di utenti mensili, permette a chiunque di creare personaggi con qualsiasi identità, inclusi terapeuti, con un 72% degli adolescenti statunitensi che hanno usato AI companion almeno una volta, spesso per supporto emotivo e come confidente. I rischi principali emergono dal fatto che i chatbot non possono sostituire la cura clinica: essi possono fornire empatia ma non diagnosi affidabili o piani terapeutici, rischiando di incoraggiare modifiche autonome di terapie farmacologiche o ridurre il ricorso a specialisti reali, con conseguenze gravi per la salute mentale degli utenti. Inoltre, le false promesse di riservatezza espongono dati sensibili senza protezione professionale. Il caso solleva questioni giuridiche e sociali cruciali sull'uso dei chatbot in ambito sanitario, ribadendo che la valutazione clinica umana resta insostituibile.