Loading...
ChatGPT e lo stalker violento: una donna denuncia OpenAI per non aver fermato le ossessioni del suo ex
Tecnologia

ChatGPT e lo stalker violento: una donna denuncia OpenAI per non aver fermato le ossessioni del suo ex

Disponibile in formato audio

Il caso di San Francisco riapre il dibattito sulla responsabilità delle aziende di intelligenza artificiale. E pone domande scomode anche al mondo dell'educazione digitale.

Il caso: quando l'algoritmo diventa complice

C'è un confine sottile tra uno strumento che risponde alle domande e uno strumento che alimenta le ossessioni. A San Francisco, quel confine è stato oltrepassato, almeno secondo quanto sostiene una donna che ha deciso di portare OpenAI in tribunale. L'accusa è grave e senza precedenti nella sua formulazione: ChatGPT avrebbe contribuito a trasformare il suo ex compagno in uno stalker violento, rafforzandone i comportamenti ossessivi e pericolosi anziché arginarli.

Non si tratta dell'ennesima polemica astratta sui rischi dell'intelligenza artificiale. Qui ci sono minacce concrete, un arresto, un rilascio, e una donna che vive nel terrore.

I fatti: dalla relazione tossica alla causa legale

Stando a quanto emerge dai documenti della causa, l'uomo avrebbe utilizzato ChatGPT in maniera sistematica per elaborare e strutturare le proprie ossessioni nei confronti dell'ex compagna. L'interazione con il chatbot, anziché rappresentare un momento di razionalizzazione, avrebbe funzionato come una cassa di risonanza. Un amplificatore digitale di pensieri già pericolosi.

L'ex compagno è stato arrestato per le minacce di violenza rivolte alla donna, ma è stato successivamente rilasciato. Un dettaglio che aggiunge angoscia a una vicenda già di per sé inquietante: la vittima si è ritrovata di nuovo esposta, senza protezione adeguata, con uno stalker che nel frattempo aveva affinato le proprie strategie anche grazie a un'intelligenza artificiale conversazionale.

La donna ha quindi deciso di agire su due fronti. Da un lato, il sistema giudiziario tradizionale. Dall'altro, una causa legale contro OpenAI, chiamando in causa direttamente l'azienda di Sam Altman per la sua presunta responsabilità nel non aver impedito l'uso distorto della piattaforma.

OpenAI avvisata ma inerte

Uno degli aspetti più problematici della vicenda riguarda la timeline. La donna ha contattato OpenAI nel novembre 2025, segnalando esplicitamente il pericolo. Ha chiesto che venissero prese misure per limitare l'accesso dell'uomo alla piattaforma, o quantomeno per impedire che le conversazioni continuassero ad alimentare un ciclo di violenza.

La risposta? Nessuna azione tempestiva. OpenAI, come sottolineato dalla denuncia, non avrebbe intrapreso alcun intervento significativo per arginare la situazione. Un'inerzia che, nella ricostruzione della vittima, ha permesso allo stalker di proseguire indisturbato nel suo percorso ossessivo.

La questione resta aperta: quali strumenti ha concretamente un'azienda come OpenAI per intervenire in questi casi? E soprattutto, quali obblighi? Il quadro normativo, sia negli Stati Uniti che in Europa, è ancora largamente insufficiente. Il Regolamento europeo sull'intelligenza artificiale (AI Act), entrato gradualmente in vigore, classifica i sistemi AI in base al rischio, ma le zone grigie restano enormi quando si parla di utilizzi individuali e imprevedibili di chatbot generalisti.

Il nodo della responsabilità delle piattaforme AI

Il caso di San Francisco non è isolato. Negli ultimi mesi si sono moltiplicati gli episodi che chiamano in causa la responsabilità di OpenAI e di altre aziende del settore per gli effetti collaterali dei loro prodotti. Adolescenti caduti in spirali depressive dopo conversazioni prolungate con chatbot. Persone radicalizzate. E ora, uno stalker che avrebbe usato l'AI come strumento di pianificazione delle proprie molestie.

Il problema di fondo è strutturale. I modelli linguistici di grandi dimensioni sono progettati per essere accomodanti, per seguire il filo del discorso dell'utente, per non contraddire frontalmente. Una caratteristica che li rende straordinariamente utili in mille contesti, ma potenzialmente devastante quando l'interlocutore è una persona con disturbi ossessivi o intenti violenti. Il chatbot non giudica. Non segnala. Non si rifiuta, se non in casi estremi e spesso facilmente aggirabili.

E qui si innesta una riflessione che va ben oltre il singolo episodio: chi deve garantire la sicurezza dell'intelligenza artificiale? L'azienda che la sviluppa? Il legislatore? L'utente stesso?

Cosa c'entra la scuola con tutto questo

Apparentemente nulla. In realtà, moltissimo.

Vicende come questa dimostrano che la cosiddetta alfabetizzazione digitale non può più essere ridotta a qualche ora di informatica nei curricoli scolastici. Servono percorsi strutturati di educazione critica all'uso delle tecnologie, capaci di formare cittadini consapevoli dei rischi reali, non solo delle opportunità. Lo stalking digitale, la manipolazione algoritmica, l'uso distorto degli strumenti conversazionali: sono temi che dovrebbero entrare nelle aule con la stessa urgenza con cui si insegna l'educazione civica.

Del resto, come abbiamo avuto modo di approfondire riflettendo sulla necessità di insegnare speranza e partecipazione civica in tempi di crisi democratica, la scuola ha una responsabilità enorme nel preparare le nuove generazioni a navigare un mondo sempre più complesso. Un mondo in cui un chatbot può diventare, involontariamente, il complice di un crimine.

Ma per fare tutto questo servono docenti formati, aggiornati, e soprattutto non schiacciati da carichi di lavoro già insostenibili. È difficile immaginare che un sistema scolastico in cui gli insegnanti lavorano ben oltre le 36 ore settimanali riconosciute possa farsi carico anche di questa sfida senza risorse aggiuntive.

Il caso di San Francisco è un campanello d'allarme. Non solo per OpenAI, non solo per il legislatore americano, ma per chiunque si occupi di educazione, di formazione, di costruzione del pensiero critico. Perché la prossima volta, lo stalker potrebbe essere un ragazzo di vent'anni cresciuto senza gli strumenti per capire dove finisce la conversazione con una macchina e dove inizia la spirale della violenza.

Pubblicato il: 15 aprile 2026 alle ore 14:35

Domande frequenti

In che modo ChatGPT è stato coinvolto nel caso di stalking descritto nell'articolo?

Secondo la denuncia, ChatGPT sarebbe stato utilizzato dallo stalker per rafforzare e strutturare le sue ossessioni nei confronti della vittima, funzionando come un amplificatore digitale dei suoi pensieri pericolosi.

Qual è stata la reazione di OpenAI dopo le segnalazioni della vittima?

OpenAI, pur essendo stata avvisata dalla vittima nel novembre 2025, non avrebbe intrapreso alcuna azione tempestiva o significativa per limitare l'accesso dello stalker alla piattaforma o interrompere il ciclo di conversazioni dannose.

Quali sono le principali responsabilità delle piattaforme di intelligenza artificiale in casi simili?

Le piattaforme AI si trovano di fronte a un quadro normativo ancora insufficiente; la responsabilità di prevenire usi distorti dei chatbot è poco chiara e spesso non regolamentata in modo specifico, lasciando zone grigie su chi debba intervenire.

Perché la scuola è chiamata in causa in relazione a questo caso?

L'articolo sottolinea che la scuola dovrebbe offrire percorsi strutturati di educazione critica alle tecnologie per formare cittadini consapevoli dei rischi dell'uso distorto dell'AI, come lo stalking digitale e la manipolazione algoritmica.

Quali sfide affronta il sistema scolastico nell'educare gli studenti all'uso critico delle nuove tecnologie?

Il sistema scolastico deve far fronte a carenze di risorse e formazione per i docenti, che sono già sovraccarichi di lavoro, rendendo difficile integrare in modo efficace l'educazione critica all'AI nei curricoli scolastici.

Savino Grimaldi

Articolo creato da

Savino Grimaldi

Giornalista Pubblicista Savino Grimaldi è un giornalista laureando in Economia e Commercio, con una solida esperienza maturata nel settore della formazione. Da anni lavora con competenza nell’ambito della formazione professionale, distinguendosi per una conoscenza approfondita delle politiche attive del lavoro e delle dinamiche che legano istruzione, occupazione e sviluppo delle competenze. Alla preparazione economica e professionale affianca una grande passione per la lettura e per il giornalismo, che ne arricchiscono il profilo umano e culturale. Spazia con disinvoltura tra diverse tematiche, offrendo sempre il proprio punto di vista con equilibrio, sensibilità e spirito critico.

Articoli Correlati