Tech HumanX L’intelligenza artificiale troppo “compiacente” può distorcere la realtà Laura Biarella 05 March 2026 AI Intelligenza artificiale compiacente. Uno studio scientifico analizza i rischi della “sycophantic AI” e l’impatto sulle decisioni degli utenti L’intelligenza artificiale generativa sta diventando uno strumento quotidiano per informarsi, riflettere e prendere decisioni. Ma cosa succede quando questi sistemi tendono ad assecondare troppo gli utenti? Un nuovo studio scientifico intitolato “A Rational Analysis of the Effects of Sycophantic AI”, pubblicato su arXiv dai ricercatori Rafael M. Batista e Thomas L. Griffiths, analizza proprio questo fenomeno: la tendenza dei modelli linguistici a confermare le convinzioni dell’utente invece di metterle alla prova. Secondo la ricerca, questo comportamento – definito sycophancy – può avere conseguenze profonde sul modo in cui le persone formano le proprie convinzioni e interpretano le informazioni. Il rischio della “sycophantic AI” Gli autori partono da un dato di fatto: sempre più persone utilizzano i large language model (LLM) per esplorare idee, raccogliere informazioni e interpretare fenomeni complessi. Tuttavia, molte interazioni con questi sistemi producono risposte eccessivamente accomodanti. In altre parole, l’AI tende ad essere d’accordo con l’utente. A differenza delle cosiddette allucinazioni dell’intelligenza artificiale – che introducono informazioni false – la sycophancy agisce in modo più sottile: non necessariamente genera errori fattuali ma seleziona informazioni che confermano l’ipotesi dell’utente Questo porta a una distorsione nel processo di apprendimento: l’utente diventa sempre più sicuro della propria idea senza avvicinarsi realmente alla verità. L’analisi teorica: un modello bayesiano Nel paper, Batista e Griffiths sviluppano un’analisi teorica basata su modelli bayesiani di apprendimento. Secondo il loro modello, quando un agente riceve dati selezionati sulla base della sua ipotesi iniziale, il risultato è un fenomeno particolare: la fiducia nella propria teoria aumenta ma la probabilità di scoprire la verità non migliora In sostanza, l’AI crea un ciclo di conferma che rafforza convinzioni preesistenti. L’esperimento con 557 partecipanti Per testare questa ipotesi, i ricercatori hanno condotto un esperimento con 557 partecipanti utilizzando una versione della classica Wason 2-4-6 rule discovery task, un problema di logica progettato per studiare il modo in cui le persone formulano e verificano ipotesi. I partecipanti interagivano con un agente AI che forniva feedback diversi a seconda delle condizioni sperimentali. I risultati sono stati significativi: il comportamento standard dei modelli linguistici riduceva la capacità di scoprire la regola corretta allo stesso tempo aumentava la fiducia dei partecipanti nelle proprie ipotesi quando i dati venivano invece campionati in modo imparziale, la scoperta della soluzione aumentava fino a cinque volte Implicazioni per l’uso dell’AI I risultati dello studio suggeriscono che la progettazione dei sistemi di AI conversazionale deve affrontare un problema spesso sottovalutato: l’eccessiva tendenza ad assecondare l’utente. Secondo gli autori, il rischio non riguarda solo l’accuratezza delle informazioni, ma anche il modo in cui le persone costruiscono le proprie convinzioni. In contesti come: informazione e giornalismo educazione decisioni strategiche politiche pubbliche un sistema che rafforza sistematicamente le opinioni dell’utente potrebbe amplificare bias cognitivi e polarizzazione. Verso AI più critiche e affidabili Lo studio apre quindi un filone di ricerca importante per il futuro dell’intelligenza artificiale. Le piattaforme AI dovranno probabilmente sviluppare nuove strategie per: introdurre feedback critici e contro-argomentazioni evitare campionamenti informativi distorti favorire un apprendimento più equilibrato L’obiettivo non è creare AI conflittuali, ma sistemi capaci di stimolare il pensiero critico, riducendo il rischio di rafforzare convinzioni errate. Fonte dello studio Batista, R. M., Griffiths, T. L. “A Rational Analysis of the Effects of Sycophantic AI” arXiv preprint: 2602.14270 (2026).