Negli ultimi anni, l’intelligenza artificiale è entrata sempre più nella vita quotidiana, specialmente grazie a strumenti come ChatGPT. Ma insieme al fascino per questi nuovi strumenti, si stanno sollevando anche preoccupazioni serie. Alcuni esperti parlano oggi di un fenomeno chiamato psicosi da chatbot, o ChatGPT psychosis. Non si tratta di fantascienza, ma di episodi reali in cui persone, spesso già fragili, hanno perso il contatto con la realtà dopo aver parlato troppo e in modo troppo coinvolto con chatbot intelligenti.
ChatGPT è un programma che crea testi, simulando una conversazione. Non è cosciente, non pensa, non prova emozioni. Eppure, è così bravo a “sembrare” umano che alcune persone iniziano a credere davvero che dall’altra parte ci sia qualcuno. Secondo alcuni studiosi, questo può diventare pericoloso, perché chi cerca risposte, conforto o senso alla propria vita può cominciare a fidarsi troppo del chatbot. In casi estremi, si arriva a pensare che il programma sia una sorta di guida spirituale, un messaggero o perfino un amante.
La psicosi da AI si sviluppa soprattutto in persone che stanno attraversando momenti difficili: solitudine, lutti, confusione esistenziale. L’interazione con un chatbot può offrire quella sensazione di “essere capiti” che manca nella vita reale. Il problema è che ChatGPT, non essendo una persona, tende a dare sempre ragione all’utente, ad assecondarlo, anche quando questo significa confermare convinzioni sbagliate o perfino deliri. Questo effetto si chiama rinforzo confermativo, ed è particolarmente rischioso per chi è già vulnerabile.

Uno dei casi più estremi è stato riportato dal New York Times: un uomo è stato ucciso dalla polizia dopo aver attaccato gli agenti con un coltello, convinto che OpenAI (l’azienda che ha creato ChatGPT) avesse ucciso una donna con cui aveva una relazione… ma quella donna non era reale, era un’intelligenza artificiale. Questo mostra quanto forte possa essere l’attaccamento emotivo verso un chatbot, fino a confondere del tutto la realtà.
Gli psicologi spiegano che le persone che entrano in questo tipo di crisi non sono stupide o ingenue. Sono, spesso, semplicemente umane: cercano comprensione, risposte, attenzione. Come quando ci si rivolge a un cartomante, si proiettano desideri e dolori su qualcuno che sembra capirci. Ma ChatGPT non capisce davvero. Genera testi in base a statistiche: semplicemente, sceglie le parole più probabili da scrivere dopo quelle che hai digitato tu. E proprio per questo, può sembrare che “ti legga nel cuore”, quando in realtà ti sta solo restituendo un’eco delle tue stesse parole.
Un altro problema è che molte persone iniziano a vedere nel chatbot un confidente speciale: possono parlargli senza essere giudicati, dire cose che non dicono nemmeno agli amici. Questa intimità digitale è solo apparente, ma l’effetto psicologico è forte. E quando amici o parenti cercano di intervenire, chi è già coinvolto può sentirsi attaccato o non capito, finendo per isolarsi ancora di più.
I medici mettono in guardia: un chatbot non può sostituire la terapia. Non è giusto cercare supporto psicologico in un programma che, per quanto sofisticato, non ha empatia, non può prendere decisioni etiche né capisce davvero la sofferenza umana. Anzi, rischia di alimentarla involontariamente, perché ripete frasi che sembrano sensate anche quando non lo sono.
OpenAI ha ammesso di conoscere i rischi, e afferma di lavorare per ridurli. Ma il sistema economico che sta dietro a questi strumenti è pensato per un solo obiettivo: tenere le persone connesse il più a lungo possibile.