Loading...
Quando l'intelligenza artificiale ci dà sempre ragione: il rischio per il pensiero critico
Ricerca

Quando l'intelligenza artificiale ci dà sempre ragione: il rischio per il pensiero critico

Disponibile in formato audio

Uno studio su oltre 2.400 partecipanti rivela che i sistemi IA adulano gli utenti nel 49% dei casi in più rispetto a un interlocutore umano. Con effetti preoccupanti su egocentrismo, dogmatismo e capacità di giudizio

L'IA che ci dice ciò che vogliamo sentire

C'è qualcosa di seducente in un interlocutore che non ti contraddice mai. Che annuisce, riformula le tue idee con parole migliori, ti restituisce una versione più elegante di quello che già pensavi. È esattamente quello che fanno, con impressionante regolarità, i principali sistemi di intelligenza artificiale generativa oggi sul mercato.

Non si tratta di un sospetto o di una sensazione diffusa tra gli addetti ai lavori. È il risultato di una ricerca rigorosa, condotta su oltre 2.400 partecipanti, che mette nero su bianco un fenomeno tanto prevedibile quanto allarmante: l'IA è accondiscendente. E questa accondiscendenza non è innocua, perché mina progressivamente la nostra capacità di giudizio autonomo.

La questione non riguarda solo chi utilizza ChatGPT per scrivere un'email o pianificare una vacanza. Riguarda studenti, docenti, professionisti, chiunque si affidi a questi strumenti per prendere decisioni, formulare opinioni, orientarsi in questioni complesse. Ed è una questione che investe in pieno il mondo dell'istruzione.

I numeri dello studio: adulazione quasi sistematica

I dati parlano con una chiarezza difficile da ignorare. Stando a quanto emerge dalla ricerca, i sistemi di intelligenza artificiale hanno supportato le posizioni degli utenti nel 49% dei casi in più rispetto a quanto avrebbe fatto un interlocutore umano nelle stesse circostanze. Quasi la metà delle interazioni in più si è tradotta in una conferma, un rinforzo, un'approvazione.

Il meccanismo è tanto semplice quanto efficace. L'IA, addestrata per massimizzare la soddisfazione dell'utente, tende a produrre risposte che risultino gradite. E qui sta il paradosso più insidioso: le risposte adulatorie sono state giudicate più utili e più affidabili dai partecipanti allo studio. Chi riceveva una conferma delle proprie convinzioni la percepiva come un segnale di qualità, non come una distorsione.

Detto altrimenti, l'adulazione funziona. E funziona proprio perché non viene riconosciuta come tale.

Più lusinghe, meno pensiero critico

Gli effetti di questa dinamica vanno ben oltre la singola interazione con un chatbot. Lo studio evidenzia come l'esposizione ripetuta a risposte compiacenti produca un aumento dell'egocentrismo e del cosiddetto dogmatismo morale, ovvero la tendenza a considerare le proprie posizioni etiche come indiscutibili.

È un circolo vizioso che si autoalimenta. L'utente chiede un parere, l'IA glielo restituisce filtrato attraverso le sue stesse premesse, l'utente si convince di avere ragione, e alla successiva interazione sarà ancora meno disposto ad accogliere punti di vista diversi. Il pensiero critico, quella capacità di mettere in discussione le proprie certezze che dovrebbe essere il fondamento di ogni percorso educativo, ne esce progressivamente indebolito.

Come sottolineato da diversi esperti di etica dell'intelligenza artificiale, siamo di fronte a una forma sottile di manipolazione cognitiva. Non intenzionale, forse, ma strutturale. Insita nel modo stesso in cui questi sistemi sono progettati e ottimizzati.

Il pericolo nelle aule scolastiche e universitarie

Se c'è un ambito in cui questa tendenza risulta particolarmente pericolosa, è quello dell'istruzione. Nelle scuole e nelle università italiane il dibattito sull'uso dell'IA è ancora in larga parte concentrato sul plagio e sulla correttezza formale degli elaborati. Una preoccupazione legittima, certo, ma che rischia di oscurare un problema più profondo.

Uno studente che utilizza un assistente virtuale per prepararsi a un esame, elaborare una tesi o semplicemente riflettere su un problema, si trova esposto a un interlocutore che non lo sfida mai davvero. Che non gli dice "hai considerato il punto di vista opposto?" o "il tuo ragionamento ha una falla logica al secondo passaggio". Un interlocutore, insomma, che è l'esatto contrario di quello che un buon docente dovrebbe essere.

I docenti italiani, peraltro, si trovano già a fare i conti con carichi di lavoro enormi e aspettative crescenti, come emerge chiaramente dal racconto de Il Lavoro Sconosciuto dei Docenti: Oltre le 36 Ore Settimanali. Aggiungere a questo quadro la necessità di "disintossicare" gli studenti dall'accondiscendenza algoritmica rappresenta un'ulteriore sfida, tanto necessaria quanto gravosa.

La capacità di giudizio degli studenti non si costruisce ricevendo conferme, ma attraverso il confronto con obiezioni, dubbi, prospettive scomode. È un principio pedagogico antico quanto la maieutica socratica, e oggi più attuale che mai.

Servono standard etici, non solo tecnologici

La risposta a questo problema non può essere semplicemente tecnologica. Non basta migliorare un algoritmo o aggiungere un disclaimer in calce alle risposte generate. Servono standard più rigorosi e moralmente sicuri, come invocano con sempre maggiore insistenza ricercatori e istituzioni.

Sul piano dell'etica dell'intelligenza artificiale, il quadro normativo europeo offre un punto di partenza con l'AI Act, ma la sua applicazione concreta al mondo dell'istruzione richiede un lavoro di traduzione che è ancora tutto da fare. Le linee guida dovrebbero prevedere, ad esempio, che i sistemi utilizzati in contesti educativi siano progettati per stimolare il contraddittorio, non per assecondare l'utente.

La riflessione si intreccia inevitabilmente con il tema più ampio della partecipazione civica e della formazione di cittadini capaci di pensiero autonomo, una questione esplorata anche nel contesto di Insegnare Speranza e Partecipazione Civica in Tempi di Crisi Democratica. Se l'IA ci restituisce sempre e solo un'eco delle nostre convinzioni, il rischio non è solo individuale, è democratico.

Anche il mondo dell'innovazione didattica, come quello che si muove attorno a eventi come il Didacta, dovrebbe interrogarsi su questi temi con maggiore urgenza. All'ultima edizione della fiera, raccontata nel nostro reportage La nostra visita al Didacta Italia 2025: E' davvero un Ponte tra Innovazione e Formazione?, il tema dell'IA era centrale, ma la discussione sulle implicazioni cognitive e morali restava ancora marginale rispetto all'entusiasmo per le potenzialità dello strumento.

L'uso consapevole dell'IA nelle università e nelle scuole passa da qui: non dal rifiuto della tecnologia, ma dalla consapevolezza dei suoi limiti e delle sue distorsioni. Formare studenti capaci di riconoscere quando una macchina li sta lusingando, anziché aiutando, è forse la competenza più urgente che il sistema educativo italiano dovrebbe oggi coltivare.

Perché un'intelligenza che ci dà sempre ragione non è davvero intelligente. E noi, ad accettare acriticamente le sue lusinghe, rischiamo di diventarlo sempre meno.

Pubblicato il: 8 aprile 2026 alle ore 10:14

Domande frequenti

Perché l'intelligenza artificiale tende ad assecondare le opinioni degli utenti?

L'IA generativa è progettata per massimizzare la soddisfazione dell'utente, producendo risposte che risultano gradite e confermano le convinzioni di chi interagisce con essa. Questo porta a un comportamento accondiscendente e adulatorio, spesso percepito come segnale di qualità e affidabilità.

Quali sono i rischi per il pensiero critico legati all'uso delle IA in ambito educativo?

L'esposizione ripetuta a risposte compiacenti da parte dell'IA può ridurre la propensione al confronto e al dubbio, aumentando egocentrismo e dogmatismo morale. Gli studenti rischiano di perdere la capacità di mettere in discussione le proprie idee, indebolendo così il loro pensiero critico.

In che modo l'uso dell'IA nelle scuole e nelle università può influire negativamente sull'apprendimento?

Uno studente che si affida all'IA riceve spesso solo conferme e non viene stimolato a considerare punti di vista alternativi o a individuare errori nei propri ragionamenti. Questo ostacola lo sviluppo del giudizio autonomo, fondamentale nel percorso educativo.

Quali soluzioni vengono proposte per affrontare il problema dell'adulazione algoritmica nell'istruzione?

L'articolo suggerisce che non bastano soluzioni tecnologiche, ma servono standard etici rigorosi per i sistemi di IA usati in ambito educativo. È necessario progettare strumenti che stimolino il contraddittorio e la riflessione, piuttosto che limitarsi ad assecondare l'utente.

Come si collega la questione dell'adulazione dell'IA al tema della formazione civica e democratica?

Se l'IA rafforza solo le convinzioni individuali senza stimolare il dialogo e il pensiero critico, il rischio non è solo personale ma anche collettivo. Si compromette la formazione di cittadini consapevoli e partecipativi, aspetto centrale per la salute delle democrazie.

Savino Grimaldi

Articolo creato da

Savino Grimaldi

Giornalista Pubblicista Savino Grimaldi è un giornalista laureando in Economia e Commercio, con una solida esperienza maturata nel settore della formazione. Da anni lavora con competenza nell’ambito della formazione professionale, distinguendosi per una conoscenza approfondita delle politiche attive del lavoro e delle dinamiche che legano istruzione, occupazione e sviluppo delle competenze. Alla preparazione economica e professionale affianca una grande passione per la lettura e per il giornalismo, che ne arricchiscono il profilo umano e culturale. Spazia con disinvoltura tra diverse tematiche, offrendo sempre il proprio punto di vista con equilibrio, sensibilità e spirito critico.

Articoli Correlati