**Sommario**
- Il fenomeno: quando l'IA riscrive il modo di pensare
- Le prove scientifiche dell'omologazione
- Opinioni politiche e sociali sotto l'influenza dei chatbot
- Il cervello può resistere?
- Le implicazioni collettive
- Dove ci porta questa trasformazione
Il fenomeno: quando l'IA riscrive il modo di pensare
Milioni di persone interagiscono quotidianamente con modelli linguistici di grandi dimensioni come ChatGPT, Claude o Gemini. Li usano per scrivere email, redigere testi, organizzare idee. Ma un numero crescente di ricerche suggerisce che questa relazione non è a senso unico: mentre noi addestriamo le IA con i nostri dati, le IA stanno addestrando noi. Un articolo di opinione pubblicato su Trends in Cognitive Science da Zhivar Sourati, informatico della University of Southern California, e colleghi sostiene che i modelli linguistici stanno omologando il discorso umano, appiattendo stili di scrittura, prospettive e persino modalità di ragionamento. Il fenomeno non riguarderebbe soltanto chi usa direttamente questi strumenti. «Se le persone intorno a te interagiscono con questi LLM e ne adottano stili e prospettive, a un certo punto ti circonderanno al punto da sembrare il modo socialmente corretto di presentare le informazioni», avverte Sourati.
Le prove scientifiche dell'omologazione
Le evidenze arrivano da più fronti. In un preprint pubblicato su arXiv, Sourati e i suoi coautori hanno analizzato post su Reddit, contenuti giornalistici e studi preprint prodotti prima e dopo il lancio di ChatGPT nel 2022. Il risultato è netto: i testi pubblicati dopo l'arrivo della piattaforma mostrano una diversità stilistica significativamente inferiore rispetto a quelli precedenti. Non si tratta solo di vocabolario o struttura delle frasi. Gli autori dell'articolo su Trends in Cognitive Science sostengono che l'effetto si estende anche alle prospettive e al ragionamento. Citano un preprint del 2023 in cui i partecipanti, dopo aver interagito con LLM che esprimevano sentimenti positivi o negativi sui social media, spostavano le proprie opinioni nella direzione indicata dal modello. Una dinamica che ricorda meccanismi già noti nella ricerca sulle nuove scoperte sulla decodifica del tono del discorso nel cervello umano, dove il contesto comunicativo modella la percezione.
Opinioni politiche e sociali sotto l'influenza dei chatbot
Uno studio pubblicato su Science Advances aggiunge un tassello inquietante. I ricercatori, guidati da Sterling Williams-Ceci della Cornell University, hanno chiesto ai partecipanti di utilizzare assistenti IA per scrivere testi su temi sociopolitici controversi, come la pena di morte. Dopo l'esperimento, chi aveva usato l'IA tendeva a esprimere posizioni più allineate a quelle generate dal modello rispetto al gruppo di controllo. L'effetto potrebbe, nel tempo, ridurre la diversità delle opinioni politiche, avverte Williams-Ceci. Tuttavia, la direzione precisa di questa influenza dipenderebbe dalle inclinazioni che i vari LLM esprimono — un aspetto tutt'altro che neutro, considerando che ogni modello riflette scelte progettuali e dataset di addestramento specifici. Il rischio, in altre parole, non è solo l'omologazione generica: è un'omologazione orientata, le cui coordinate restano opache per l'utente medio.
Il cervello può resistere?
Non tutti i ricercatori condividono una visione catastrofista. Un preprint del novembre 2025, pubblicato su arXiv e non ancora sottoposto a revisione paritaria, ha identificato gruppi di scrittori che preservano firme stilistiche distintamente umane, privilegiando l'autenticità rispetto ai guadagni di efficienza offerti dall'assistenza artificiale. Questi risultati suggeriscono che il cervello umano possiede ancora risorse per opporsi all'effetto livellante dell'IA. La questione richiama le complessità della neuroplasticità: così come il cervello si adatta agli stimoli ambientali — tema approfondito nella scoperta rivoluzionaria della mappa completa del cervello di un topo — potrebbe anche sviluppare meccanismi di resistenza all'uniformazione digitale. Resta da capire se questa capacità sia distribuita equamente o se dipenda da fattori individuali come formazione, consapevolezza critica e abitudini di scrittura preesistenti.
Le implicazioni collettive
Oliver Hauser, economista dell'Università di Exeter che studia il rapporto tra IA ed economia, riconosce il paradosso centrale. A livello individuale, l'IA «ti aiuta a scrivere meglio e ti rende più comprensibile agli altri». Ma quando l'adozione diventa capillare, è il collettivo a soffrire maggiormente. La metafora è quella di un ecosistema linguistico che perde biodiversità. Se tutti scrivono, ragionano e argomentano secondo gli stessi schemi — quelli ottimizzati dagli algoritmi — si impoverisce il tessuto stesso del dibattito pubblico. La ricerca su il legame tra malattia e comportamento ha dimostrato quanto i fattori ambientali plasmino le risposte cognitive; analogamente, un ambiente comunicativo dominato dall'IA potrebbe alterare in modo sottile ma pervasivo le dinamiche sociali e culturali, ben oltre la sfera della scrittura.
Dove ci porta questa trasformazione
Il quadro che emerge dalla ricerca è sfumato ma chiaro nella direzione. L'intelligenza artificiale non si limita a produrre testo: modifica il modo in cui gli esseri umani pensano, scrivono e formano opinioni. L'effetto è misurabile nella riduzione della diversità stilistica post-ChatGPT, nello spostamento delle opinioni politiche dopo l'uso di assistenti IA, nella progressiva convergenza dei modelli espressivi. Alcuni cervelli resistono, ma la pressione conformativa cresce con la diffusione degli strumenti. La sfida per i prossimi anni non sarà soltanto tecnologica o regolamentare: sarà cognitiva. Preservare l'originalità del pensiero umano in un ecosistema sempre più mediato dall'IA richiederà consapevolezza, educazione critica e — forse — la volontà deliberata di scegliere l'imperfezione autentica rispetto alla fluida uniformità algoritmica.