Sommario
- Un post su Reddit che nessuno ha smascherato
- Pangram Labs e la caccia ai testi artificiali
- Quando anche il Vaticano finisce sotto la lente
- L'oceano sommerso dei contenuti generati dall'IA
- Tra consapevolezza e rassegnazione: il futuro della lettura online
Un post su Reddit che nessuno ha smascherato
Il 20 aprile scorso, un utente appena iscritto a Reddit ha pubblicato un messaggio sul popolare sottoforum r/AmItheAsshole, chiedendo se avesse sbagliato a rifiutarsi di fare da babysitter ai figli della matrigna. Il testo era breve, diretto, scritto con una naturalezza che non destava sospetti. Raccontava di tensioni familiari, di pretese ricorrenti, di un senso di colpa strisciante. Decine di risposte solidali si sono accumulate in poche ore, quasi tutte dalla parte dell'autore. Nessuno ha messo in dubbio l'autenticità del racconto, eppure quel post, secondo il software di rilevamento sviluppato da Pangram Labs, era stato generato da un'intelligenza artificiale. La vicenda, riportata da Wired, è emblematica di un fenomeno che sta ridefinendo i confini tra comunicazione autentica e contenuto sintetico. Non si trattava di un testo raffazzonato o pieno di errori stilistici rivelatori: era un racconto ordinario, credibile, perfettamente calibrato per suscitare empatia. L'utente, contattato dalla redazione di Wired, non ha mai risposto. Il post è stato poi cancellato. Ma il problema che solleva resta intatto, anzi si amplifica ogni giorno.
Pangram Labs e la caccia ai testi artificiali
A guidare la battaglia contro i contenuti artificiali c'è Max Spero, amministratore delegato di Pangram Labs, che si definisce con ironia "addetto alla pulizia della fuffa". La sua azienda ha sviluppato un'estensione per Chrome che analizza in tempo reale i testi pubblicati su piattaforme come Reddit, X, LinkedIn, Medium e Substack, classificandoli in tre categorie: scritti da un essere umano, generati dall'IA oppure redatti con assistenza artificiale. Lo strumento dichiara un'accuratezza del 99,98 percento e un tasso di falsi positivi di appena un caso su diecimila. Numeri impressionanti, confermati da uno studio del 2025 dell'Università di Chicago che ha assegnato a Pangram il punteggio più alto tra i software di rilevamento testati. Il segreto, spiega Spero, sta nell'addestramento su "esempi difficili, più vicini al confine tra IA e umano". L'integrazione diretta nel browser rappresenta un salto di qualità rispetto ai metodi precedenti. "Incollare un testo in uno strumento esterno è faticoso. Le persone non lo fanno", sottolinea il fondatore. Con il rilevamento proattivo, invece, i contenuti sospetti vengono segnalati automaticamente durante la normale navigazione quotidiana.
Quando anche il Vaticano finisce sotto la lente
L'esempio più clamoroso emerso dall'analisi di Pangram riguarda un'istituzione che con la tecnologia ha un rapporto quantomeno complesso: il Vaticano. Secondo lo strumento di rilevamento, diversi post pubblicati dall'account ufficiale @Pontifex di Papa Leone XIV su X risultano generati dall'intelligenza artificiale. Il paradosso è evidente: alcuni di questi messaggi mettevano in guardia proprio dai rischi dell'IA. Il 17 aprile, ad esempio, l'account papale ha pubblicato un thread in cui si invitavano i cattolici a "farsi pionieri di un nuovo umanesimo nel contesto della rivoluzione digitale". Il primo messaggio risulta scritto da un essere umano, ma i tre successivi, quelli in cui si analizza come l'intelligenza artificiale plasmi mentalità e strutture sociali, sono stati segnalati come artificiali. "Quando la simulazione diventa la norma, indebolisce la capacità umana di discernimento", recita l'ultimo post etichettato. Una frase che, alla luce dell'analisi, assume una sfumatura involontariamente ironica. Il Vaticano non ha risposto alle richieste di commento. "È chiaro che non gestisce lui il suo account Twitter", osserva Spero con pragmatismo. Nel frattempo, anche i colossi tecnologici finiscono sotto esame: persino il messaggio di Tim Cook per il cinquantesimo anniversario di Apple risulterebbe generato dall'IA.
L'oceano sommerso dei contenuti generati dall'IA
Quello che emerge dai social è soltanto la superficie di un fenomeno ben più vasto. Secondo uno studio pubblicato da ricercatori della Stanford University, dell'Imperial College di Londra e dell'Internet Archive, nel 2025 i testi generati almeno in parte dall'IA rappresentano già oltre un terzo di tutti i nuovi siti web. La cosiddetta AI slop, l'equivalente digitale della spazzatura informativa, si infiltra ovunque: articoli di giornale, post su LinkedIn, newsletter su Substack, recensioni su Medium. Gli esperti avvertono che il fenomeno sta erodendo la qualità del giornalismo e la fiducia nelle piattaforme. Non tutti, però, nascondono l'uso dell'IA. Il giornalista tecnologico Alex Heath ha dichiarato apertamente di farsi aiutare da Claude Cowork per scrivere i suoi articoli su Substack, arrivando ad addestrare il chatbot affinché imitasse il suo stile personale. Una trasparenza che resta l'eccezione, non la regola. In un ecosistema digitale dove le grandi piattaforme competono per l'attenzione e i dati degli utenti, come evidenziato anche dalla recente sentenza contro Google per monopolio nella pubblicità online, la proliferazione di contenuti sintetici aggiunge un ulteriore livello di opacità a un panorama già complesso.
Tra consapevolezza e rassegnazione: il futuro della lettura online
Strumenti come Pangram offrono una lente preziosa, ma sollevano anche interrogativi scomodi. Se un software può identificare con altissima precisione i testi generati dall'IA, cosa succede quando i modelli linguistici diventeranno ancora più sofisticati? È una rincorsa tecnologica senza un traguardo definito. Spero ne è consapevole e per questo aggiorna costantemente i suoi algoritmi con esempi sempre più ambigui, quelli che si collocano nella zona grigia tra produzione umana e artificiale. C'è poi la questione etica. Sapere che un post del Papa è stato probabilmente scritto da un software cambia il modo in cui lo riceviamo? Per molti fedeli, il messaggio conta più della sua origine materiale. Per altri, l'autenticità della voce è inseparabile dal contenuto. La verità è che ci troviamo in una fase di transizione in cui le regole del gioco non sono ancora state scritte. Nessuna normativa internazionale impone di dichiarare l'uso dell'IA nella produzione di contenuti testuali. Nel frattempo, un dato resta: la maggior parte delle persone non si accorge di nulla. Quel post su Reddit ha ricevuto decine di risposte empatiche prima di essere smascherato. La fiducia nel testo scritto, costruita in secoli di cultura letteraria, si scontra oggi con una realtà in cui le parole possono essere generate in millisecondi, senza che nessun essere umano le abbia mai pensate.