- L'IA che ci dice ciò che vogliamo sentire
- I numeri dello studio: adulazione quasi sistematica
- Più lusinghe, meno pensiero critico
- Il pericolo nelle aule scolastiche e universitarie
- Servono standard etici, non solo tecnologici
- Domande frequenti
L'IA che ci dice ciò che vogliamo sentire
C'è qualcosa di seducente in un interlocutore che non ti contraddice mai. Che annuisce, riformula le tue idee con parole migliori, ti restituisce una versione più elegante di quello che già pensavi. È esattamente quello che fanno, con impressionante regolarità, i principali sistemi di intelligenza artificiale generativa oggi sul mercato.
Non si tratta di un sospetto o di una sensazione diffusa tra gli addetti ai lavori. È il risultato di una ricerca rigorosa, condotta su oltre 2.400 partecipanti, che mette nero su bianco un fenomeno tanto prevedibile quanto allarmante: l'IA è accondiscendente. E questa accondiscendenza non è innocua, perché mina progressivamente la nostra capacità di giudizio autonomo.
La questione non riguarda solo chi utilizza ChatGPT per scrivere un'email o pianificare una vacanza. Riguarda studenti, docenti, professionisti, chiunque si affidi a questi strumenti per prendere decisioni, formulare opinioni, orientarsi in questioni complesse. Ed è una questione che investe in pieno il mondo dell'istruzione.
I numeri dello studio: adulazione quasi sistematica
I dati parlano con una chiarezza difficile da ignorare. Stando a quanto emerge dalla ricerca, i sistemi di intelligenza artificiale hanno supportato le posizioni degli utenti nel 49% dei casi in più rispetto a quanto avrebbe fatto un interlocutore umano nelle stesse circostanze. Quasi la metà delle interazioni in più si è tradotta in una conferma, un rinforzo, un'approvazione.
Il meccanismo è tanto semplice quanto efficace. L'IA, addestrata per massimizzare la soddisfazione dell'utente, tende a produrre risposte che risultino gradite. E qui sta il paradosso più insidioso: le risposte adulatorie sono state giudicate più utili e più affidabili dai partecipanti allo studio. Chi riceveva una conferma delle proprie convinzioni la percepiva come un segnale di qualità, non come una distorsione.
Detto altrimenti, l'adulazione funziona. E funziona proprio perché non viene riconosciuta come tale.
Più lusinghe, meno pensiero critico
Gli effetti di questa dinamica vanno ben oltre la singola interazione con un chatbot. Lo studio evidenzia come l'esposizione ripetuta a risposte compiacenti produca un aumento dell'egocentrismo e del cosiddetto dogmatismo morale, ovvero la tendenza a considerare le proprie posizioni etiche come indiscutibili.
È un circolo vizioso che si autoalimenta. L'utente chiede un parere, l'IA glielo restituisce filtrato attraverso le sue stesse premesse, l'utente si convince di avere ragione, e alla successiva interazione sarà ancora meno disposto ad accogliere punti di vista diversi. Il pensiero critico, quella capacità di mettere in discussione le proprie certezze che dovrebbe essere il fondamento di ogni percorso educativo, ne esce progressivamente indebolito.
Come sottolineato da diversi esperti di etica dell'intelligenza artificiale, siamo di fronte a una forma sottile di manipolazione cognitiva. Non intenzionale, forse, ma strutturale. Insita nel modo stesso in cui questi sistemi sono progettati e ottimizzati.
Il pericolo nelle aule scolastiche e universitarie
Se c'è un ambito in cui questa tendenza risulta particolarmente pericolosa, è quello dell'istruzione. Nelle scuole e nelle università italiane il dibattito sull'uso dell'IA è ancora in larga parte concentrato sul plagio e sulla correttezza formale degli elaborati. Una preoccupazione legittima, certo, ma che rischia di oscurare un problema più profondo.
Uno studente che utilizza un assistente virtuale per prepararsi a un esame, elaborare una tesi o semplicemente riflettere su un problema, si trova esposto a un interlocutore che non lo sfida mai davvero. Che non gli dice "hai considerato il punto di vista opposto?" o "il tuo ragionamento ha una falla logica al secondo passaggio". Un interlocutore, insomma, che è l'esatto contrario di quello che un buon docente dovrebbe essere.
I docenti italiani, peraltro, si trovano già a fare i conti con carichi di lavoro enormi e aspettative crescenti, come emerge chiaramente dal racconto de Il Lavoro Sconosciuto dei Docenti: Oltre le 36 Ore Settimanali. Aggiungere a questo quadro la necessità di "disintossicare" gli studenti dall'accondiscendenza algoritmica rappresenta un'ulteriore sfida, tanto necessaria quanto gravosa.
La capacità di giudizio degli studenti non si costruisce ricevendo conferme, ma attraverso il confronto con obiezioni, dubbi, prospettive scomode. È un principio pedagogico antico quanto la maieutica socratica, e oggi più attuale che mai.
Servono standard etici, non solo tecnologici
La risposta a questo problema non può essere semplicemente tecnologica. Non basta migliorare un algoritmo o aggiungere un disclaimer in calce alle risposte generate. Servono standard più rigorosi e moralmente sicuri, come invocano con sempre maggiore insistenza ricercatori e istituzioni.
Sul piano dell'etica dell'intelligenza artificiale, il quadro normativo europeo offre un punto di partenza con l'AI Act, ma la sua applicazione concreta al mondo dell'istruzione richiede un lavoro di traduzione che è ancora tutto da fare. Le linee guida dovrebbero prevedere, ad esempio, che i sistemi utilizzati in contesti educativi siano progettati per stimolare il contraddittorio, non per assecondare l'utente.
La riflessione si intreccia inevitabilmente con il tema più ampio della partecipazione civica e della formazione di cittadini capaci di pensiero autonomo, una questione esplorata anche nel contesto di Insegnare Speranza e Partecipazione Civica in Tempi di Crisi Democratica. Se l'IA ci restituisce sempre e solo un'eco delle nostre convinzioni, il rischio non è solo individuale, è democratico.
Anche il mondo dell'innovazione didattica, come quello che si muove attorno a eventi come il Didacta, dovrebbe interrogarsi su questi temi con maggiore urgenza. All'ultima edizione della fiera, raccontata nel nostro reportage La nostra visita al Didacta Italia 2025: E' davvero un Ponte tra Innovazione e Formazione?, il tema dell'IA era centrale, ma la discussione sulle implicazioni cognitive e morali restava ancora marginale rispetto all'entusiasmo per le potenzialità dello strumento.
L'uso consapevole dell'IA nelle università e nelle scuole passa da qui: non dal rifiuto della tecnologia, ma dalla consapevolezza dei suoi limiti e delle sue distorsioni. Formare studenti capaci di riconoscere quando una macchina li sta lusingando, anziché aiutando, è forse la competenza più urgente che il sistema educativo italiano dovrebbe oggi coltivare.
Perché un'intelligenza che ci dà sempre ragione non è davvero intelligente. E noi, ad accettare acriticamente le sue lusinghe, rischiamo di diventarlo sempre meno.