Un sessantenne voleva migliorare la sua alimentazione sostituendo il sale. Si è rivolto a ChatGPT, ma è finito in ospedale.
L’utilizzo di ChatGPT è sempre più diffuso, fa parte della vita degli utenti del web in tutto il mondo, che chiedono consigli all’Intelligenza Artificiale su qualsiasi aspetto della quotidianità.
Il modello impara dai suoi errori, ma questo non vuol dire che sia impeccabile. Ed è per questo che quando si tratta della salute, bisogna fare molta attenzione a capire se le risposte che fornisce sono attendibili.
A raccomandare di informarsi bene sono stati gli autori di un articolo scientifico pubblicato sugli Annals of Internal Medicine, riportando anche un esempio pratico sui rischi derivanti dall’utilizzo improprio di ChatGPT. Ma il discorso vale anche per tutti gli altri modelli di Intelligenza artificiale.
Il caso è quello di un uomo di sessant’anni che, dopo essersi informato sui possibili effetti negativi del sale da cucina, intento a migliorare il suo piano alimentare, ha chiesto all’IA come sostituire il comunissimo cloruro di sodio. ChatGPT gli ha fornito come alternativa il bromuro di sodio.
Convinto della risposta ricevuta, senza verificare ulteriori fonti online e senza contattare un medico per chiedere conferme esperte, l’utente ha acquistato il bromuro di sodio online ed ha cominciato ad assumerlo al posto del sale.
Tre mesi dopo però, si è recato in ospedale, convinto che un vicino di casa avesse tentato di avvelenarlo. L’uomo non assumeva farmaci o integratori, non soffriva di patologie pregresse, così i medici si sono ugualmente rivolti al Centro Antiveleni. Ed è stato così che ha scoperto di soffrire della sindrome del bromismo. Il livello di bromuro nel suo organismo era pari a 1.700 milligrammi: veramente tanti, considerando che il valore normale deve essere compreso tra 0.9 e 7.3.
Il bromismo era una sindrome nota nel XX secolo ma era ormai scomparsa. Comprendeva sintomi neuropsichiatrici e dermatologici ed era contenuto in molti farmaci da banco che oggi non sono più in vendita.
Sempre nell’articolo si legge che il sessantenne aveva avuto disturbi come acne, sete intensa, lieve atassia (cioè un disturbo neurologico che causa problemi alla coordinazione dei movimenti volontari) e affaticamento. Ma non solo: aveva sviluppato anche paranoia e allucinazioni visive e uditive.
Il paziente è rimasto ricoverato in ospedale per tre settimane sotto osservazione medica, prima che i valori di bromuro nel corpo tornassero ai livelli normali. Gli autori dell’articolo, esperti dell’Università di Washington e Seattle, hanno evidenziato come “l’uso dell’intelligenza artificiale possa potenzialmente contribuite allo sviluppo di esiti sanitari avversi prevenibili”.
E hanno ricordato che ChatGPT, come altre app di intelligenza artificiale, possono “generare inesattezze scientifiche” ed “alimentare la diffusione della disinformazione”. Ecco perché, nel caso della salute, è sempre bene consultare il medico e non l’IA.
In generale, è sempre possibile utilizzare le app di intelligenza artificiale in modo consapevole, attraverso il confronto dei contenuti in rete (e scegliendo quelli attendibili). Ma c’è anche un’altra cosa che potreste fare: chiedere sempre di mostrarvi la fonte da cui ha attinto le informazioni per formulare la risposta alla vostra domanda.