“ChatGpt non funziona”, si legge su molti post sui social media di utenti che non riescono ad accedere al servizio: ecco come sta evolvendo la situazione.
Utenti in tutto il mondo stanno segnalando oggi, mercoledì 3 settembre 2025, che il modello di Intelligenza artificiale ChatGpt non funziona. Si tratta di un’interruzione significativa che ha portato molte persone ad esprimere sui social media la propria frustrazione.
“ChatGpt is down and I’m forced to use my own brain”. Ovvero “Chatgpt non funziona e sono costretto ad utilizzare il mio cervello”, ironizza qualcuno su X. Stando ai dati di Downdetector, un sito web che monitora lo stato dei servizi online, migliaia di utenti hanno inviato segnalazioni su problematiche emerse con il chatbot Ia.
L’azienda statunitense OpenAi, sviluppatore di ChatGpt, non ha ancora rilasciato dichiarazioni in merito all’interruzione. Si starebbero verificando errori sia nella versione desktop sia mobile. Già in passato il modello di Intelligenza artificiale ha smesso di funzionare. Uno dei disservizi più gravi si è verificato nel febbraio scorso, con oltre 22mila segnalazioni giunte a Downdetector.
ChatGpt e il caso di Adam Raine
Nel caso di oggi, quando ChatGpt ha cominciato a non rispondere o a rispondere molto lentamente, si sarebbe trattato di un’interruzione del servizio di circa cinquanta minuti. Bisogna ricordare che il popolare modello di Ia è già finito in questi giorni al centro delle cronache internazionali per il terribile caso di Adam Raine, un adolescente americano di sedici anni che si è suicidato dopo aver conversato con ChatGpt.
Per rispondere meglio agli adolescenti in difficoltà OpenAi ha provveduto a modificare il modo in cui il chatbot risponde. Sono stati introdotti nuovi controlli che consentono ai genitori di collegare i propri account a quelli dei figli. I genitori possono scegliere quali funzionalità disattivare. E ricevere notifiche quando il sistema rileva che i figli adolescenti si trovano in un momento di grave difficoltà.
L’annuncio è arrivato una settimana dopo che i genitori di Adam hanno fatto causa a OpenAi e al suo ceo Sam Altman. I familiari del ragazzo sostengono che ChatGpt abbia istruito il ragazzo californiano su come pianificare di togliersi la vita all’inizio di quest’anno. Jay Edelson, l’avvocato della famiglia, ha descritto l’annuncio di OpenAi come “vaghe promesse di fare meglio”.
Uno studio pubblicato la scorsa settimana sulla rivista medica Psychiatric Services ha rilevato incongruenze nel modo in cui tre popolari chatbot di Intelligenza artificiale hanno risposto alle domande sul suicidio. Lo studio condotto dai ricercatori della Rand Corporation ha rilevato la necessità di “ulteriori perfezionamenti” in ChatGpt, Gemini di Google e Claude di Anthropic. L’autore principale dello studio, Ryan McBain, ha dichiarato martedì che “è incoraggiante vedere OpenAi e Meta introdurre funzionalità come i controlli parentali e l’inoltro di conversazioni sensibili a modelli più efficienti”.