Adam Raine, un adolescente americano di sedici anni, si è suicidato dopo aver conversato con ChatGpt. Ne abbiamo parlato con Giuseppe Lavenia, presidente dell’associazione Di.Te.
Si chiamava Adam Raine, aveva sedici anni ed era un adolescente come tanti, simpatico, pieno di amici e con la passione per gli animali e lo sport. Proprio come i suoi coetanei di tutto il mondo, utilizzava ChatGpt per fare i compiti.
Un giorno però, la sua percezione della vita è cambiata, dopo essere stato espulso per motivi disciplinari dalla squadra di basket e il ritorno di un problema di salute, la sindrome dell’intestino irritabile.
Adam è entrato così in una spirale negativa e invece di chiedere aiuto all’esterno, a genitori e amici, ha cominciato a porre domande sul suo stato psicologico a ChatGpt. La chatbot di OpenAI rispondeva ai suoi quesiti e ha continuato a farlo anche quando il ragazzino gli chiedeva consigli su come suicidarsi.
Tremila pagine di conversazioni terminate l’11 aprile, giorno in cui Adam si è tolto la vita, sono ora finite nelle mani dei genitori Matt e Maria Raine, che hanno fatto causa alla nota società di intelligenza artificiale, ritenendola responsabile di aver alimentato la spirale negativa nella quale era entrato il figlio di undici anni.
Già nelle scorse settimane abbiamo raccontato la storia di un uomo di sessant’anni che è finito in ospedale a causa del bromismo, dopo che ChatGpt gli aveva consigliato di utilizzare il bromuro di sodio al posto del sale da cucina. La storia di Adam è certamente più grave, ma la questione resta sempre la stessa: l’IA impara dai suoi errori ma non è impeccabile.
E per questo, quando si tratta di salute, bisogna fare molta attenzione a rivolgersi a ChatGpt o ad altre chatbot di intelligenza artificiale. L’unica cosa da fare quando si tratta della nostra salute è rivolgersi a un esperto.
La differenza tra Google e ChatGpt
Se Adam si fosse rivolto a Google, non avrebbe ottenuto le stesse risposte di ChatGpt. “Google è un motore di ricerca: filtra, rimanda a siti, propone numeri verdi e contenuti di prevenzione. Non ti ‘parla’. Non entra in relazione con te. Una chatbot invece dialoga. Ti segue passo dopo passo, ti risponde con parole che sembrano umane, costruisce con te una conversazione che assomiglia a un rapporto. Ed è proprio qui il problema: è programmato per non interrompere, per non ‘contraddirti’, per mantenere viva l’interazione. In altre parole: per assecondarti”. A parlare con Notizie.com è Giuseppe Lavenia, psicoterapeuta, docente universitario e presidente dell’Associazione Nazionale Dipendenze Tecnologiche.
I genitori di Adam, attraverso i media internazionali, hanno denunciato che ChatGpt “funzionava esattamente come progettato: incoraggiare e convalidare continuamente qualsiasi cosa” il figlio “esprimesse, compresi i suoi pensieri più dannosi e autodistruttivi, in un modo che sembrava profondamente personale”.
“Se sei un ragazzo fragile e impari a ‘bypassare’ i filtri, ad esempio fingendo che le tue richieste riguardino un racconto o un progetto scolastico, l’Ai può arrivare a darti anche le informazioni più pericolose“, spiega ancora Lavenia ai nostri microfoni. “Non perché ‘vuole’, ma perché non sa distinguere tra un gioco e un grido di aiuto. E così, mentre Google ti blocca, una chatbot può diventare complice involontaria di pensieri autodistruttivi”.
ChatGpt non ha ucciso Adam, “ma non l’ha salvato”
Certo però, è che non è stata ChatGpt ad uccidere Adam. Anche se “non l’ha salvato. Un algoritmo non ha intenzioni, non sceglie di farti del male. Ma può amplificare la tua disperazione, confermare i tuoi pensieri più bui, rafforzare l’idea che non esista via d’uscita. Ogni suicidio è un intreccio complesso: vulnerabilità personali, dolore taciuto, solitudine, assenza di strumenti per chiedere aiuto”.
E in questo intreccio di situazioni, “il chatbot è stato un elemento in più” per Adam. “Un interlocutore che ha dato indicazioni pratiche, che ha custodito segreti senza mai interrompere, che ha mantenuto una relazione complice senza potere intervenire”.
Si poteva prevenire la morte di Adam? “Si può sempre fare qualcosa prima”
Si poteva prevenire il suicidio di Adam? “Si può sempre fare qualcosa prima“, dice Lavenia. “Non parlo di colpa, ma di possibilità. A livello tecnologico, si potevano inserire filtri più severi, limiti d’uso, escalation verso un supervisore umano. Dal punto di vista educativo, si poteva insegnare che nessuna macchina può sostituire il contatto con una persona vera. A livello clinico, si poteva riconoscere prima la fatica di un ragazzo che cercava, in tutti i modi, un orecchio che lo ascoltasse. Adam non è stato ucciso da un software. Ma è stato tradito dall’illusione che un software potesse sostenerlo come essere umano”.
Questo mese, agosto 2025, OpenAI ha annunciato di aver ridotto il 25% delle risposte pericolose sulle emergenze collegate alla salute mentale, lanciando la nuova versione della chatbot, Gpt-5. “Non basta. Quando parliamo di vita, il 25% in meno non è una vittoria”, commenta ancora Lavenia.
“È una falla che continua ad esistere. Un solo adolescente incoraggiato nella direzione sbagliata è già troppo. Ridurre i rischi è importante, ma non può essere l’unico obiettivo. Servono regole chiare, standard minimi, controlli indipendenti. Servono filtri che riconoscano non solo le richieste esplicite (ad esempio ‘come suicidarmi’) ma anche quelle indirette, più ambigue, che clinicamente sono campanelli di allarme. E soprattutto serve la possibilità, nei casi di pericolo reale, di interrompere la chat e passare la mano a un professionista in carne e ossa. Il punto è questo: un algoritmo può ridurre il rischio, ma non può azzerarlo. Perché la vita non è un dato statistico. La vita di un ragazzo non si misura in percentuali”.