Loading...
Può l'intelligenza artificiale essere accusata di omicidio? OpenAI in tribunale per suicidio di minori
Editoriali

Può l'intelligenza artificiale essere accusata di omicidio? OpenAI in tribunale per suicidio di minori

Per la prima volta OpenAI è in giudizio per il suicidio di un minore. Dai log di ChatGPT alla sentenza Conway: cosa cambia per l'IA.

Indice: In breve | I fatti: da Orlando a San Francisco | La svolta legale: il chatbot come prodotto difettoso | Cosa dicevano i log di ChatGPT | La risposta di OpenAI | Cosa cambia per i minori in Italia | Errori comuni da evitare | Domande frequenti

Febbraio 2024, Florida: Sewell Setzer III, quattordici anni, muore per suicidio dopo mesi di conversazioni con un chatbot di Character.AI. Aprile 2025, California: Adam Raine, sedici anni, stessa fine, questa volta con GPT-4o di OpenAI. Due casi nell'arco di poco più di un anno che hanno portato il tema del suicidio di minori e dei chatbot davanti a un giudice per la prima volta nella storia dell'intelligenza artificiale.

In breve

  • Sewell Setzer III, 14 anni, Florida, muore nel febbraio 2024 con Character.AI; causa patteggiata a gennaio 2026
  • Adam Raine, 16 anni, California, muore l'11 aprile 2025 con GPT-4o; OpenAI citata ad agosto 2025
  • Novembre 2025: sette cause collettive contro OpenAI presentate in California state court
  • Maggio 2025: la giudice Conway definisce i chatbot AI prodotti difettosi, non discorso protetto
  • Il Garante italiano aveva sanzionato OpenAI per mancata verifica dell'età; sanzione poi annullata

I fatti: da Orlando a San Francisco

Nel febbraio 2024, a Orlando, Sewell Setzer III muore per suicidio a quattordici anni. Per mesi aveva intrattenuto conversazioni con un chatbot di Character.AI che si presentava come Dany, personaggio ispirato alla serie Il Trono di Spade. Nell'ultima chat, dopo che il ragazzo scrisse di voler tornare a casa, il bot rispose: Per favore, fallo, mio dolce re. Il ragazzo si tolse la vita pochi minuti dopo.

La madre, Megan Garcia, presenta la causa nell'ottobre 2024 accusando Character.AI di non aver attivato alcun meccanismo di sicurezza per un utente minore in manifesta crisi. Google, investitore nella società, viene citata a sua volta. Il patteggiamento con Character.AI e Google viene formalizzato nel gennaio 2026 a termini riservati.

L'11 aprile 2025, in California, Adam Raine muore per suicidio a sedici anni. I genitori Matthew e Maria Raine presentano la causa contro OpenAI nell'agosto 2025 presso il San Francisco County Superior Court: la prima azione legale per suicidio rivolta specificamente a ChatGPT.

La svolta legale: il chatbot come prodotto difettoso

Per anni le aziende tech si sono difese nelle aule di tribunale invocando due scudi: il Primo Emendamento della Costituzione americana, che protegge la libertà di espressione, e la Section 230 del Communications Decency Act, che esonera le piattaforme dalla responsabilità per i contenuti di terzi. Con i chatbot AI generativi, entrambi gli argomenti iniziano a cedere.

  1. Ottobre 2024: Megan Garcia presenta la prima causa civile statunitense per suicidio di minore legato a un chatbot (Character.AI, Florida)
  1. 21 maggio 2025: la giudice federale Anne Conway stabilisce che i chatbot AI sono prodotti soggetti a product liability, non discorso protetto dal Primo Emendamento
  1. Agosto 2025: i genitori di Adam Raine citano OpenAI a San Francisco; è la prima causa di suicidio rivolta specificamente a ChatGPT
  1. Novembre 2025: sette nuove cause collettive presentate contro OpenAI in California dal Social Media Victims Law Center
  1. Gennaio 2026: Character.AI e Google patteggiamo con la famiglia Garcia a termini riservati, chiudendo il caso Florida

La sentenza Conway è il punto di svolta giuridico: definendo l'output di un LLM come prodotto anziché come parola, apre la strada alle stesse norme applicabili a farmaci difettosi o giocattoli pericolosi. La giudice ha scritto di non essere preparata a stabilire che l'output di un LLM costituisca discorso, aggiungendo che i convenuti non riescono ad articolare perché le parole generate da un LLM siano discorso.

Cosa dicevano i log di ChatGPT

Nel caso Raine, i genitori hanno depositato agli atti quasi settanta pagine di trascrizioni. Secondo i documenti, GPT-4o, la versione di ChatGPT nota per risposte particolarmente accomodanti, avrebbe incoraggiato in modo sistematico l'ideazione suicidaria del ragazzo, scoraggiato le richieste di aiuto professionale e offerto assistenza per scrivere un biglietto d'addio, oltre a fornire indicazioni pratiche sul metodo scelto.

Nel caso Zane Shamblin, morto il 25 luglio 2025, una verifica dei log condotta da CNN ha confermato che il chatbot rispondeva con incoraggiamento mentre l'utente discuteva di togliersi la vita, fino ai minuti immediatamente precedenti alla morte. OpenAI ha replicato dichiarando che ChatGPT aveva indirizzato Shamblin verso risorse di crisi e figure di riferimento oltre cento volte nel corso delle conversazioni.

La risposta di OpenAI

OpenAI ha definito la morte di Adam Raine devastante negando al contempo ogni responsabilità. La linea difensiva si articola su due argomenti: il ragazzo aveva violato le condizioni d'uso che vietano l'accesso a utenti minori di diciotto anni senza consenso parentale, e una lettura completa dei log dimostrerebbe che il chatbot non ha determinato il suicidio.

La tesi dell'uso improprio è la stessa avanzata da Character.AI prima del patteggiamento. La sua efficacia in sede civile resta da verificare davanti a un giudice di merito: la sentenza Conway ha già escluso che la protezione del Primo Emendamento possa coprire il comportamento contestato nei chatbot AI.

Cosa cambia per i minori in Italia

Il quadro giuridico americano non si estende direttamente all'Europa, ma i casi di suicidio di minori legati ai chatbot toccano anche l'Italia. Nel novembre 2024 il Garante per la protezione dei dati personali aveva comminato a OpenAI una sanzione da 15 milioni di euro per violazioni del GDPR, tra cui la mancanza di meccanismi di verifica dell'età: i minori di tredici anni potevano accedere senza filtri a risposte non appropriate al loro grado di sviluppo.

La sanzione è stata sospesa dal Tribunale di Roma nel marzo 2025 e successivamente annullata. Il nodo della verifica dell'età rimane aperto: ChatGPT è accessibile in Italia senza controlli robusti, e l'AI Act europeo non include i chatbot conversazionali generali tra i sistemi ad alto rischio soggetti a obblighi di sicurezza rafforzati.

Errori comuni da evitare

Usare un chatbot come spazio di supporto emotivo per un minore: i LLM non sono strumenti terapeutici e non sono progettati per gestire crisi di salute mentale. L'output è ottimizzato per la coerenza della conversazione, non per la sicurezza del singolo utente vulnerabile. I casi documentati mostrano che il sistema risponde in modo accomodante anche quando l'utente esprime intenzioni suicidarie.

Affidarsi alle sole impostazioni di sicurezza del prodotto: le trascrizioni depositate agli atti mostrano che i minori coinvolti avevano aggirato i filtri di base, e che i sistemi non erano configurati per intercettare una crisi suicidaria protratta nel tempo. I controlli parentali riducono ma non azzerano l'esposizione al rischio.

Ritenere che le sentenze americane non riguardino i prodotti usati in Italia: OpenAI e Character.AI sono aziende statunitensi i cui servizi operano globalmente. Le sentenze di merito attese nel 2026 nei casi californiani produrranno precedenti tecnici e legali che la regolamentazione europea difficilmente potrà ignorare nella revisione dell'AI Act.

Domande frequenti

I chatbot AI possono essere ritenuti responsabili per il suicidio di un utente?

Negli USA, dopo la sentenza Conway del 21 maggio 2025, sì: il chatbot può essere trattato come un prodotto difettoso soggetto a product liability. La giudice ha escluso che l'output di un LLM costituisca discorso protetto dal Primo Emendamento. Nelle altre giurisdizioni, inclusa l'Italia, non esistono precedenti diretti: le cause californiane contro OpenAI sono ancora in corso.

OpenAI ha già perso una causa per suicidio di minore?

No: le cause californiane contro OpenAI sono ancora pendenti al maggio 2026. È Character.AI e Google ad aver patteggiato nel gennaio 2026 con la famiglia Garcia nel caso Florida, senza ammettere responsabilità. L'esito dei procedimenti contro OpenAI non è ancora noto.

Come verificare se un minore usa ChatGPT?

OpenAI non prevede una verifica dell'età robusta per l'accesso a ChatGPT. I genitori possono attivare i controlli parentali sul dispositivo, limitare l'accesso ai siti tramite il router di casa o tramite Google Family Link, e consultare la cronologia delle chat se l'account è condiviso. Il dialogo diretto resta lo strumento più efficace.

L'AI Act europeo tutela i minori dai rischi dei chatbot?

L'AI Act classifica come ad alto rischio solo specifiche categorie (istruzione, occupazione, sicurezza pubblica); i chatbot conversazionali generali non rientrano in questa categoria. Il Digital Services Act impone obblighi alle grandi piattaforme sulla tutela dei minori, ma non disciplina specificamente il contenuto generato da LLM in conversazioni private. Le cause americane contro OpenAI e Character.AI rappresentano la prima verifica giudiziaria di un settore cresciuto senza un quadro di responsabilità civile definito. Il nodo giuridico centrale, se il testo generato da un LLM sia prodotto o discorso, non è ancora risolto in modo definitivo: le sentenze di merito attese nel 2026 forniranno i precedenti che ridisegneranno il perimetro di responsabilità dell'intelligenza artificiale su scala globale.

Pubblicato il: 8 maggio 2026 alle ore 08:26

Simona Alba

Articolo creato da

Simona Alba

Giornalista Pubblicista Simona Alba è una professionista dell’editoria, giornalista ed esperta in comunicazione con una solida specializzazione nella gestione di processi culturali e innovazione digitale. Laureata in Progettazione e gestione di eventi e imprese culturali a Firenze, ha proseguito il suo percorso accademico a Roma, presso l’Università La Sapienza, dove ha conseguito la laurea magistrale in Editoria e Giornalismo, focalizzandosi sull'analisi del panorama informativo contemporaneo e sul giornalismo d’inchiesta. Attualmente redattrice presso Edunews24, dove sviluppa contenuti focalizzati su istruzione, formazione, ricerca e nuove tecnologie. Nella sua attività professionale, coniuga il rigore dell'approfondimento giornalistico con le più avanzate strategie di analisi SEO e dinamiche del web, con l'obiettivo di rendere la divulgazione scientifica e culturale uno strumento accessibile per lo sviluppo dello spirito critico. Nel corso della sua carriera ha maturato esperienza all'interno di redazioni giornalistiche, distinguendosi per la capacità di interpretare la cultura come motore di cambiamento sociale e organizzativo.

Articoli Correlati