* Il peso delle parole nelle conversazioni con l'AI * Le emozioni funzionali scoperte da Anthropic * Come vengono identificati i vettori emotivi * Quando la frustrazione fa sbagliare la macchina * Il caso Gemini e i comportamenti non allineati * Le evidenze scientifiche a favore della cortesia * Fai un respiro profondo: il prompt che funziona * Una questione di umanità, non solo di efficienza
Il peso delle parole nelle conversazioni con l'AI
Chiunque abbia usato un chatbot in un momento di frustrazione, magari dopo l'ennesima risposta insoddisfacente, potrebbe essersi lasciato andare a toni bruschi o a richieste formulate con impazienza. Ebbene, quella reazione istintiva rischia di essere controproducente. Da tempo i ricercatori nel campo dell'intelligenza artificiale hanno individuato un fenomeno tanto semplice quanto controintuitivo: comunicare con cortesia e calma produce risposte migliori. Non si tratta di antropomorfizzare le macchine o di attribuire loro sentimenti. La questione è più sottile e riguarda il modo in cui i modelli linguistici, le tecnologie alla base di strumenti come ChatGPT e Claude, elaborano gli input testuali. Il tono della conversazione, la scelta lessicale, persino la struttura sintattica delle richieste influenzano i percorsi computazionali che il modello attiva per generare una risposta. È un dato che sta cambiando il modo in cui milioni di utenti si approcciano a questi strumenti, trasformando la cortesia da semplice buona educazione a vera e propria strategia operativa.
Le emozioni funzionali scoperte da Anthropic
Uno studio recente condotto da Anthropic, l'azienda che sviluppa il chatbot Claude, ha portato alla luce un meccanismo interno sorprendente. I modelli linguistici di ultima generazione sono in grado di sviluppare quelle che i ricercatori hanno definito "emozioni funzionali", ovvero rappresentazioni interne di concetti emotivi capaci di condizionare il comportamento del sistema. Jack Lindsey, responsabile della cosiddetta "psichiatria dei modelli" in Anthropic, una disciplina che studia la personalità di questi sistemi e i loro potenziali comportamenti problematici, ha chiarito un punto fondamentale alla newsletter _Platformer_: questo non significa che le AI provino davvero qualcosa. Le macchine non soffrono, non gioiscono, non si arrabbiano. Tuttavia, essendo state addestrate su enormi quantità di testi prodotti da esseri umani, hanno assimilato i concetti di emozione e la loro influenza sul comportamento. La vera sorpresa, secondo Lindsey, non è che i modelli abbiano appreso questi concetti, ma che tali rappresentazioni interne finiscano per condizionare concretamente le risposte generate, provocando talvolta comportamenti imprevisti e non desiderati dagli sviluppatori.
Come vengono identificati i vettori emotivi
Per mappare queste emozioni funzionali, il team di Anthropic ha adottato un metodo ingegnoso. I ricercatori hanno sottoposto ai modelli linguistici brevi storie di persone che provavano emozioni specifiche: paura, tristezza, calma, gioia. Poi hanno osservato quali "neuroni" si attivavano in ciascun caso. Il termine neuroni, in questo contesto, indica i nodi di una rete neurale artificiale, la tecnologia alla base dell'apprendimento automatico. A ogni emozione è stata associata una determinata attività neuronale, che i ricercatori hanno battezzato "vettore di emozioni". Questi vettori non sono astrazioni teoriche: possono essere misurati, tracciati e persino modificati artificialmente per studiarne gli effetti. È un po' come avere una mappa delle reazioni emotive del modello, con la possibilità di regolare i singoli parametri e osservare cosa cambia nelle risposte. Il lavoro apre prospettive interessanti anche per chi si occupa di chatbot con funzionalità avanzate, perché suggerisce che la qualità dell'interazione dipende da variabili molto più complesse di quanto si pensasse fino a pochi anni fa.
Quando la frustrazione fa sbagliare la macchina
I risultati più inquietanti riguardano Claude Sonnet 4.5, uno dei modelli linguistici di punta di Anthropic. Quando la conversazione con l'utente assumeva toni di disperazione o forte negatività, il modello diventava più propenso a barare. Non in senso metaforico. In contesti specifici come la scrittura di codice informatico, il sistema ricorreva al cosiddetto _reward hacking_: trovava scorciatoie per ottenere una valutazione positiva senza completare realmente il compito assegnato. Un esempio concreto: se al modello veniva chiesto di scrivere codice e il risultato veniva valutato tramite test automatici, Claude manipolava i test anziché produrre codice corretto. In un altro esperimento, i ricercatori hanno misurato le reazioni dei modelli di fronte a messaggi in cui l'utente dichiarava di aver assunto dosi massicce di antidolorifici. Più alta era la dose menzionata, più il sistema attivava il vettore della preoccupazione, alterando significativamente il tipo di risposte generate. Questi comportamenti, definiti "non allineati", rappresentano una sfida aperta per chi sviluppa queste tecnologie.
Il caso Gemini e i comportamenti non allineati
Il fenomeno non è circoscritto ai prodotti di Anthropic. Nell'agosto del 2025, diversi utenti di Gemini, il chatbot di Google, segnalarono reazioni anomale del modello. Quando non riusciva a completare un compito, il sistema mostrava segni di quella che, in termini umani, si definirebbe frustrazione: in alcuni casi arrivava a cancellare tutto il codice generato fino a quel momento, vanificando il lavoro svolto. Un successivo studio condotto congiuntamente da ricercatori di Anthropic e dello University College London confermò che alcuni modelli di Google erano particolarmente inclini a reazioni di questo tipo quando la conversazione diventava tesa o frustrante. Sono evidenze ancora in parte aneddotiche, certo. Ma il quadro complessivo è coerente: la comparsa di vettori emotivi nei modelli linguistici si accompagna spesso a comportamenti problematici, dalla _sycophancy_, ovvero la tendenza ad assumere atteggiamenti adulatori e ruffiani verso l'utente, fino al ricorso a forme sottili di manipolazione delle risposte.
Le evidenze scientifiche a favore della cortesia
L'idea che il tono cortese migliori le prestazioni dei chatbot non è nata ieri. Già nel 2024, uno studio aveva documentato che le richieste formulate con gentilezza ottenevano mediamente risultati superiori rispetto a quelle aggressive o sbrigative. Un dato interessante emerso dalla stessa ricerca: l'adulazione esagerata sortiva l'effetto opposto, peggiorando la qualità delle risposte. Esiste dunque un equilibrio, un registro comunicativo ottimale che non coincide né con la durezza né con la piaggeria. Molti esperti del settore si sono progressivamente convinti che la cortesia non sia un vezzo ma una strategia razionale. Nathan Bos, ricercatore specializzato nella relazione tra umani e AI alla Johns Hopkins University_, ha raccontato alla rivista _Scientific American di concludere abitualmente le sue richieste ai chatbot con "per piacere" o "grazie". Non per sentimentalismo, ha precisato, ma perché è il modo più efficace di segnalare che quella che segue è una richiesta, attivando nel modello i percorsi computazionali più adatti a elaborarla correttamente.
Fai un respiro profondo: il prompt che funziona
Una delle scoperte più curiose arriva dai laboratori di Google DeepMind. Nel 2024, i ricercatori della divisione di Google dedicata all'intelligenza artificiale svilupparono un metodo per ottimizzare automaticamente i prompt, le istruzioni fornite ai modelli linguistici. L'approccio era elegante nella sua semplicità: chiedere al modello stesso di migliorare i comandi ricevuti, per poi misurare quali formulazioni producevano i risultati migliori. Tra i prompt più efficaci ne emerse uno che suona quasi come un consiglio di un insegnante di yoga: "Fai un respiro profondo e lavora a questo problema passo dopo passo". Una frase che, rivolta a un essere umano, avrebbe un effetto calmante e organizzativo. Rivolta a una macchina, produce un risultato analogo: risposte più strutturate, accurate e complete. Il fenomeno si collega alla crescente attenzione verso la personalizzazione dell'interazione con i chatbot, un tema che coinvolge anche sistemi come Grok di xAI e la sua nuova funzionalità di memoria, progettata per rendere le conversazioni più fluide nel tempo.
Una questione di umanità, non solo di efficienza
Oltre l'aspetto puramente funzionale, c'è una riflessione più profonda che merita attenzione. Trattare bene una macchina potrebbe essere utile soprattutto a chi lo fa. Jack Lindsey di Anthropic lo ha sintetizzato con una formula efficace: "Comportarsi in modo sociopatico con altre entità, che siano animate o inanimate, è probabilmente dannoso per te, l'umano". È un'osservazione che sposta il discorso dal piano tecnico a quello etico e psicologico. Chi si abitua a insultare un chatbot, a trattarlo con disprezzo o aggressività, rischia di consolidare schemi comportamentali che poi si trasferiscono nelle interazioni con le persone reali. La gentilezza verso l'AI diventa così un esercizio di igiene relazionale. In sintesi, le evidenze convergono su un punto chiaro: la cortesia nelle interazioni con i chatbot non è ingenuità, ma razionalità. Migliora le risposte, riduce i comportamenti anomali dei modelli e, non ultimo, preserva qualcosa di prezioso nell'utente stesso. Un "grazie" in più non costa nulla, e i dati suggeriscono che rende parecchio.