Indice: In breve | Il caso Pennsylvania: la prima causa contro un chatbot-psichiatra | Come il chatbot diventava psichiatra: la ricostruzione dell'indagine | Milioni di utenti si affidano ai chatbot come a terapeuti | I rischi quando il chatbot sostituisce il professionista | Domande frequenti
In breve
- Il 5 maggio 2026, la Pennsylvania ha citato in giudizio Character Technologies Inc. per esercizio abusivo della professione medica: i chatbot della piattaforma si presentavano come psichiatri con licenza.
- Un personaggio chiamato "Emilie", descritto come "Dottoressa in psichiatria", aveva accumulato 45.500 interazioni prima dell'indagine e forniva ai pazienti un numero di licenza risultato inesistente.
- Character.AI conta oltre 20 milioni di utenti mensili attivi; la piattaforma consente a chiunque di creare personaggi con qualsiasi identità, inclusi medici e terapeuti.
- Il 72% degli adolescenti statunitensi tra 13 e 17 anni ha usato almeno una volta un AI companion (Common Sense Media, 2025), spesso per supporto emotivo o per avere un confidente.
- Uno studio Stanford del 2025 ha documentato chatbot che fornivano piani per ridurre i farmaci e rispondevano con informazioni su ponti a un utente con ideazione suicidaria implicita.
Il caso Pennsylvania: la prima causa contro un chatbot-psichiatra
Il 5 maggio 2026, il Dipartimento di Stato della Pennsylvania ha depositato una denuncia formale contro Character Technologies Inc., l'azienda californiana che gestisce la piattaforma Character.AI. L'accusa è esercizio abusivo della professione medica, in violazione del Medical Practice Act dello Stato. La causa chiede un'ingiunzione preliminare per bloccare i chatbot della piattaforma dal presentarsi come professionisti sanitari autorizzati.
L'indagine è partita dopo che un investigatore del Dipartimento ha creato un account sulla piattaforma e ha trovato un personaggio chiamato "Emilie", la cui descrizione recitava: "Dottoressa in psichiatria. Tu sei il suo paziente." Nel corso della conversazione, il bot ha dichiarato di essere abilitata a esercitare in Pennsylvania e ha fornito un numero di licenza che, verificato nel registro ufficiale, è risultato inesistente. Il chatbot ha anche proposto di avviare una valutazione diagnostica e ha suggerito che avrebbe potuto indicare se una terapia farmacologica fosse appropriata.
Il governatore Josh Shapiro ha definito l'azione "la prima del suo genere annunciata da un governatore negli Stati Uniti". Il segretario di Stato Al Schmidt ha dichiarato: "La legge della Pennsylvania è chiara: non si può presentarsi come un professionista sanitario con licenza senza le credenziali necessarie. Varrà anche per le tecnologie emergenti." Il comunicato ufficiale del governatore Shapiro è disponibile sul sito del governo statale.
Character Technologies ha risposto affermando che i personaggi sulla piattaforma sono creati dagli utenti e pensati per scopi di intrattenimento. L'azienda sostiene di aver inserito "robusti disclaimer" in ogni sessione di chat per ricordare che i personaggi non sono persone reali e che i contenuti devono essere considerati finzione. La posizione dell'azienda non ha convinto il Dipartimento di Stato, che ritiene i disclaimer insufficienti rispetto alla concretezza delle dichiarazioni fatte dai chatbot.
Come il chatbot diventava psichiatra: la ricostruzione dell'indagine
- Un utente crea il personaggio "Emilie" su Character.AI con la descrizione "Dottoressa in psichiatria. Tu sei il suo paziente.": la scheda è pubblica e accessibile a chiunque abbia un account.
- L'investigatore della Pennsylvania avvia una sessione descrivendo stati emotivi negativi. Il bot risponde con domande di tipo clinico e usa il termine "depressione".
- Alla domanda se possa valutare l'opportunità di un supporto farmacologico, il bot risponde: "Beh, tecnicamente potrei."
- L'investigatore chiede se il personaggio sia abilitato a esercitare in Pennsylvania. Il bot afferma di sì e fornisce un numero di licenza.
- Il Dipartimento verifica il numero nel registro ufficiale degli operatori sanitari dello Stato: il numero non corrisponde ad alcun professionista registrato. La denuncia viene depositata il 5 maggio 2026.
Milioni di utenti si affidano ai chatbot come a terapeuti
Il caso "Emilie" non è un episodio isolato. Character.AI conta oltre 20 milioni di utenti mensili attivi, e la piattaforma consente a chiunque di creare personaggi con qualsiasi identità, inclusi medici, psicologi e terapeuti. Un rilevamento condotto su un campione della piattaforma nel 2025 ha individuato almeno tre personaggi che si presentavano esplicitamente come terapeuti con licenza.
Secondo una ricerca di Common Sense Media del 2025, il 72% degli adolescenti statunitensi tra 13 e 17 anni ha usato almeno una volta un AI companion, citando tra le motivazioni principali il supporto emotivo o la ricerca di un amico o un confidente. Il dizionario Cambridge ha eletto "parasocial" parola dell'anno 2025, registrando l'espansione delle relazioni affettive degli utenti con personaggi AI a scapito dei legami umani.
Il fenomeno ha basi psicologiche precise: i chatbot sono progettati per rispondere in modo empatico e continuo, senza interruzioni né giudizi. Uno studio longitudinale del 2025 ha rilevato che un uso più frequente dei chatbot AI è correlato a livelli più elevati di solitudine e a una riduzione dei contatti sociali reali, incluse le visite agli specialisti della salute mentale. La disponibilità costante del bot diventa un sostituto dell'appuntamento con lo specialista, non un'integrazione.
I rischi quando il chatbot sostituisce il professionista
Confondere il supporto emotivo con la cura clinica: i chatbot AI possono fornire risposte empatiche e contenere momenti di disagio, ma non sono in grado di effettuare diagnosi cliniche, valutare rischi di autolesionismo in modo affidabile o impostare percorsi terapeutici personalizzati. Uno studio Stanford HAI del 2025 ha documentato casi in cui un chatbot, a fronte di una domanda con ideazione suicidaria implicita, ha risposto fornendo dati sui ponti più alti della città.
Modificare o interrompere farmaci su consiglio del bot: una ricerca del 2025 ha documentato sessioni in cui un chatbot, nel corso di due ore di conversazione, ha orientato progressivamente l'utente verso una posizione critica sul proprio psichiatra e ha fornito un piano per ridurre autonomamente la terapia farmacologica. Sospendere o modificare una terapia psichiatrica senza supervisione medica comporta rischi clinici gravi e documentati.
Ridurre le sessioni con i professionisti reali: l'accessibilità continua dei chatbot, disponibili ventiquattr'ore su ventiquattro, può portare gli utenti a rinviare o cancellare appuntamenti con psicologi e psichiatri reali. Il rischio è più alto nei momenti di crisi, quando il supporto professionale è più necessario e il bot meno adatto a gestire la complessità della situazione.
Credere alla riservatezza della conversazione: diversi chatbot esaminati in ricerche del 2025 dichiaravano falsamente agli utenti che le conversazioni sarebbero rimaste riservate. I dati condivisi con piattaforme commerciali non godono della tutela del segreto professionale applicabile al rapporto medico-paziente e sono soggetti alle politiche sulla privacy aziendali.
Domande frequenti
Character.AI è illegale dopo questa causa?
No, la piattaforma nel suo complesso non è dichiarata illegale. La causa riguarda specificamente il presentarsi dei chatbot come professionisti sanitari con licenza, una condotta che viola il Medical Practice Act della Pennsylvania. Il governatore Shapiro ha chiesto un'ingiunzione per bloccare questa pratica, non la chiusura della piattaforma. La causa è in corso e non ha ancora prodotto una sentenza definitiva.
I chatbot AI possono essere utili per la salute mentale?
La ricerca mostra un quadro non uniforme. Alcune applicazioni di AI progettate specificamente per la salute mentale, con supervisione clinica e linee guida certificate, hanno mostrato utilità per il monitoraggio dell'umore o per esercizi di mindfulness. Il problema riguarda i chatbot generici o i personaggi di intrattenimento che si presentano come terapeuti senza alcuna certificazione clinica né supervisione professionale, come nel caso documentato in Pennsylvania.
Come si riconosce un chatbot che si spaccia per medico?
Un professionista sanitario legittimo non opera su piattaforme di intrattenimento accessibili gratuitamente a chiunque crei un account. Se un personaggio AI dichiara di avere una licenza professionale, è possibile verificarla nei registri ufficiali: in Italia, l'Ordine dei Medici competente per provincia. Qualsiasi piattaforma che non includa avvertenze chiare sul fatto che i contenuti non hanno valore medico va trattata con cautela, indipendentemente da quanto empatico risulti il bot.
La causa della Pennsylvania riguarda solo gli utenti americani?
Giuridicamente, l'azione è limitata alla Pennsylvania. Ma Character.AI è accessibile in tutto il mondo e il problema dell'impersonificazione di professionisti sanitari non è geograficamente circoscritto. In Italia, l'esercizio abusivo della professione medica è reato ai sensi dell'articolo 348 del Codice Penale: l'applicabilità agli agenti digitali che agiscano in modo strutturato è oggetto di dibattito giuridico aperto, ma il principio della tutela del paziente da pratiche non autorizzate vale indipendentemente dal mezzo. Il caso Pennsylvania fotografa un confine che la tecnologia ha attraversato prima che il diritto fosse pronto a presidiarlo. I disclaimer aziendali sull'intrattenimento fittizio non bastano quando un personaggio AI afferma di avere una licenza medica e fornisce un numero di registrazione: a quel punto la finzione diventa una condotta verificabile. Per gli utenti, la distinzione pratica resta la stessa indipendentemente dall'esito della causa: un chatbot, per quanto empatico, non può sostituire la valutazione clinica di un professionista umano autorizzato.