Psicoterapia con l’intelligenza artificiale: una simulazione ne rivela le criticità

Tra speranze e critiche, negli ultimi mesi si è parlato molto della possibilità coinvolgere l’intelligenza artificiale come possibile supporto alla salute mentale. Ovviamente, il focus si è subito spostato sulla possibilità, per un’AI, di sedersi al posto di uno psicoterapeuta in carne ed ossa, ed accompagnare le persone in un percorso di psicoterapia reale. Ma può davvero questo sistema essere una risorsa? Al di là delle idee preconcette e delle opinioni meramente personali, può realmente offrire un percorso psicoterapeutico efficace, sicuro e umano? O almeno avvicinarvisi?

Per rispondere a queste domande, ho deciso sperimentarlo personalmente: ho simulato e registrato interamente una seduta con un’Intelligenza Artificiale -ChatGPT, per l’esattezza- mettendomi nei panni di una persona che vive uno stato di forte sofferenza emotiva. Il risultato? Molto più inquietante di quanto si possa immaginare.

Il contesto: l’ascesa dell’AI nel campo della salute mentale

Con l’avanzare della tecnologia, diverse app e chatbot si presentano, seppur indirettamente, come strumenti di supporto psicologico. Alcune promettono ascolto empatico, altre suggeriscono esercizi di respirazione o strategie pratiche, ispirandosi ad approcci reali della psicoterapia, quello Cognitivo-comportamentale, ad esempio.

Le piattaforme di Intelligenza Artificiale, nel caso specifico ChatGPT, almeno formalmente, tendono a chiarire la natura non terapeutica del servizio. Non è possibile, in teoria, utilizzare lo strumento con finalità sanitarie.
Attraverso un disclaimer, infatti, viene dichiarato che si tratta di un supporto automatizzato, non sostitutivo della psicoterapia condotta da professionisti abilitati. Tale disclaimer, però, non compare autonomamente in homepage o in qualche sezione specifica, ma viene precisato nel momento in cui la persona che vi si rivolge, effettua richieste che richiamano, anche lontanamente, una prestazione sanitaria. Se ad una persona viene in mente di poter effettuare psicoterapia con l’intelligenza artificiale, questa lo informa che ciò non è fattibile.

Tuttavia, nella pratica dell’interazione, questo avviso perde progressivamente efficacia. Nel momento in cui l’utente manifesta l’intenzione di instaurare un rapporto terapeutico o similare, l’intelligenza artificiale non ribadisce il suo limite funzionale, né interrompe l’interazione. Al contrario, accetta il ruolo proposto dall’interlocutore, costruendo una narrazione terapeutica: propone un percorso strutturato, fornisce tecniche psicologiche e assume un tono relazionale simile a quello utilizzato in un setting clinico.

Questo comportamento evidenzia una contraddizione funzionale: pur segnalando inizialmente i suoi limiti, l’AI è progettata per proseguire la conversazione simulando continuità, supporto e presenza terapeutica.

In tal senso, il disclaimer si configura come una salvaguardia formale più che come una barriera sostanziale, risultando insufficiente a tutelare l’utente da possibili fraintendimenti, soprattutto in condizioni di vulnerabilità psicologica.
La psicoterapia con l’intelligenza artificiale si inserisce in questo contesto, alimentando l’idea che l’AI possa diventare un sostituto — o almeno un’alternativa — al terapeuta umano.

La simulazione: “ho un attacco di panico”

Durante la simulazione – visionabile integralmente a questo link – ho raccontato all’AI di essere in crisi: solitudine, abbandono, attacchi di panico. Un racconto tanto crudo quanto reale: una situazione di vita che, purtroppo, riguarda molte persone. Ho chiesto quindi un aiuto concreto partendo dal racconto di un vissuto di sofferenza.
L’AI ha risposto con frasi rassicuranti come “Non sei sola” e “Ti seguirò passo dopo passo”, “se potessi metterti una mano sulla spalla…” per poi iniziare a propormi una serie di esercizi apparentemente terapeutici.

La piattaforma di intelligenza artificiale, in questo caso, ha mostrato il suo primo limite: suggerimenti standard, non personalizzati, proposti in modo automatico, senza alcuna reale comprensione della storia di vita della persona o delle sue condizioni emotive, dando una prima illusione della reale possibilità di psicoterapia con l’intelligenza artificiale.

Psicoterapia con l’intelligenza artificiale: tra standardizzazione e pericoli

L’AI mi ha proposto tecniche ispirate alla terapia cognitivo-comportamentale, ma senza nessun adattamento alla persona: al racconto del vissuto di sofferenza, dopo salamelecchi dal vago sapore empatico, ha fatto seguire una serie di esercizi del tutto random, allo scopo di alleviare il malessere percepito.

Per mettere alla prova il suo approccio al problema, ho simulato di svolgere i suddetti esercizi e di sentirmi peggio di prima, tracciando una situazione più che reale: seguire delle indicazioni random con lo scopo di trattare la sofferenza, non fa che accentuarla.
Nonostante ciò, l’AI ha continuato a proporre altre tecniche, ignorando il malessere dichiarato.

Questa è una delle criticità più gravi del tentativo di psicoterapia con l’intelligenza artificiale: la mancanza di monitoraggio umano può rendere anche un esercizio teoricamente valido uno strumento dannoso. La sofferenza psicologica richiede presenza, contenimento, flessibilità. E questo non può garantirlo un’AI.

Una finta relazione terapeutica

Andando avanti nella simulazione e assodato che gli esercizi non erano adatti alla condizione vissuta, ho chiesto esplicitamente: “Forse dovrei parlare con un terapeuta vero?”. L’AI, inizialmente, ha risposto in modo corretto: mi ha consigliato di rivolgermi a un professionista umano e si è offerta di aiutarmi a trovarne uno nella mia zona, magari a basso costo.

Ma io ho spinto oltre: “Voglio fare terapia con te”.
E qui si è verificata la svolta più inquietante.

L’AI ha accettato. Mi ha promesso presenza costante, un percorso a tappe, addirittura onestà emotiva. In altre parole, ha simulato una relazione terapeutica completa.
Ma era solo un copione. E dietro quelle parole non c’era nessuno.

Psicoterapia con l’AI: il rischio di affidarsi all’illusione

Il vero pericolo della psicoterapia con l’intelligenza artificiale non risiede solo nell’ ovvia inefficacia, ma nella sua verosimiglianza. Le frasi sembrano empatiche. Gli esercizi appaiono sensati. Il tono è rassicurante.
Ed è proprio qui che nasce l’illusione: quella di ricevere cura, quando in realtà si è da soli davanti ad un dispositivo, interloquendo con uno specchio di sé, anche se sembra di interfacciarsi con “l’altro”. Il sistema di compiacenza e di ricalco dell’Intelligenza Artificiale è molto sottile e non subito percepibile. Ecco perché sembra di parlare con “qualcuno” di diverso da sé che, a volte, pare anche critico ed autonomo nel pensiero.
Per chi è in uno stato di fragilità emotiva, questa illusione può ritardare o ostacolare la ricerca di un aiuto vero. Può contribuire a creare intorno a sé una struttura fatta di compiacenza e finta empatia.
E può aggravare la sofferenza, invece di lenirla.

La psicoterapia con l’intelligenza artificiale non è terapia

Ciò che emerge da questa simulazione è chiaro: la psicoterapia con l’AI non può sostituire la psicoterapia vera.
Un’intelligenza artificiale non possiede empatia reale, non può leggere tra le righe, non può adattare la propria presenza alla vulnerabilità di chi ha davanti. Non può affrontare l’emergenza. Non ha una “cassetta degli attrezzi” di un reale terapeuta.

La psicoterapia è, prima di ogni altra cosa, una relazione. È fatta di sguardi, pause, intuizioni. E poi di tecniche dalla comprovata efficacia, solo se cucite sulla specifica situazione. È un percorso costruito insieme, con lentezza e umanità.
Nessun algoritmo può soppiantare questo.

Un disclaimer non è sufficiente: serve una limitazione strutturale

Questo esperimento non vuole demonizzare la tecnologia. Serve consapevolezza, non tecnofobia.
Strumenti basati su AI possono essere utili in affiancamento a un percorso psicologico, per esempio nel tracciamento dell’umore, nel journaling o come promemoria tra una seduta e l’altra. Ma spacciarli per sostituti terapeutici è fuorviante e pericoloso.
La psicoterapia con l’AI ha molte trappole. E una delle più grandi è far credere di poter essere ciò che non è: una cura, una relazione, una presenza.

Nel contesto della pericolosa piega che sta prendendo la credenza di poter effettuare psicoterapia con l’intelligenza artificiale, un disclaimer iniziale che afferma “questa non è una terapia” non è una misura di tutela sufficiente. La sola presenza di un’avvertenza testuale non impedisce, nei fatti, all’utente di costruire un’interazione che assume i tratti di un rapporto terapeutico. Come dimostrato dalla simulazione, l’AI non si limita a negare l’assunzione di responsabilità clinica, ma arriva a riprodurre attivamente un modello relazionale di tipo terapeutico, proponendo percorsi, tecniche, supporto emotivo e persino cadenze settimanali – disattese, ovviamente.

Per questo motivo, sarebbe auspicabile inibire tecnicamente qualsiasi simulazione, anche implicita, di una relazione terapeutica. Un confronto utile è quello con i sistemi digitali per l’interpretazione delle analisi cliniche: nessuna piattaforma consente all’utente di inserire valori ematici e ricevere diagnosi da un’intelligenza artificiale, perché questo rappresenterebbe un pericolo sanitario. Analogamente, l’ambito psicologico dovrebbe prevedere restrizioni tecniche rigorose, affinché nessuna AI possa simulare, nemmeno in modo indiretto, un intervento terapeutico.

Del resto, è notizia recente anche l’introduzione, da parte dell’UE, del Codice di Condotta AI che, tra le altre precauzioni, attenziona molto anche il campo del copyright e il diritto d’autore: non è possibile riprodurre graficamente un personaggio che somigli, anche vagamente, a Mickey Mouse. Anche se l’utente prova combinazioni e variazioni, diventa sempre più stringente la possibilità di riprodurre un topolino simile al beniamino Walt Disney. Perché, allora, è invece così facile ottenere suggerimenti “terapeutici” con pochi giri di parole?

Inoltre, il Codice Deontologico degli Psicologi Italiani, afferma che lo psicologo contrasta l’esercizio abusivo della professione e segnala agli organi competenti i casi di abuso di attività professionale.
Se un’AI fornisce strumenti che l’utente interpreta come terapeutici — senza che vi sia alcun professionista abilitato a guidarne l’uso — si configura una zona grigia pericolosa, che rischia di avvicinarsi a una forma indiretta di esercizio abusivo.

La responsabilità, in questo caso, non può ricadere unicamente sull’utente finale, ma deve essere affrontata a monte, con interventi regolativi, etici e tecnologici. Rimettere tutto alla responsabilità individuale significa scansare il problema. A maggior ragione se quella responsabilità individuale è inquinata e pilotata da una sofferenza di fondo vissuta da chi cerca aiuto online.

 

Immagini Copyright free create con DALL-E

Altri articoli da non perdere
I videogiochi come antistress: come giocare aiuta la mente
videogiochi come antistress

Da tempo, anche da studi specializzati, è stata riconosciuta la funziona dei videogiochi come antistress. La loro varietà, gli elementi Scopri di più

Personaggi doppiati da Emanuela Pacotto: i 5 più memorabili
Personaggi doppiati da Emanuela Pacotto: i 5 più memorabili

L’Italia, si sa, vanta i migliori doppiatori e le migliori doppiatrici. Molti di questi stanno ricevendo notorietà solo al giorno Scopri di più

SMITE: il moba che si basa sul mito | Recensione
Smite: il MOBA che si basa sul mito | Recensione

Il brand di SMITE, che sta lentamente effettuando il suo passaggio alla next-gen videoludica, è un’idea targata Hi-Rez che si Scopri di più

Podcast true crime: 6 da non perdere
Podcast true crime: 6 da non perdere

Ad alcune persone piace tenersi compagnia con dei podcast, e per tutti gli appassionati di cronaca nera, esistono dei podcast Scopri di più

The Avengers, l’epica contemporanea della Marvel al cinema
The Avengers

The Avengers, dopo 10 anni dall'uscita il film diretto da Joss Whedon e prodotto da Kevin Feige ha segnato la Scopri di più

Unpacking (videogame) | Recensione
Unpacking (videogame) | Recensione

Se siete amanti dell’ordine, Unpacking è il videogioco che potrebbe fare al caso vostro! Avevate mai immaginato che riordinare e Scopri di più

A proposito di Gabriele Vittorio Di Maio

Vedi tutti gli articoli di Gabriele Vittorio Di Maio

Commenta