Orari: LUN-VEN
Contattami: 349 2607215
e-mail: info@francescorappoccio.it

Psicoterapia e Intelligenza artificiale

Psicoterapia e Intelligenza artificiale

Negli ultimi tempi, sempre più persone si rivolgono a me con una frase che all’inizio mi ha colto un po’ di sorpresa:

“Prima di venire qui, ho chiesto a un’intelligenza artificiale cosa potessi fare per stare meglio…”

Me lo dicono con una punta di imbarazzo, come se dovessero giustificarsi. Alcuni lo fanno con tono difensivo, altri quasi con orgoglio: “Mi ha dato risposte molto sensate, sai? Sembrava davvero capire cosa provavo”.

E in effetti non sono qui per negarlo: oggi, alcuni strumenti basati sull’intelligenza artificiale, come chatbot terapeutici o assistenti virtuali evoluti, sono in grado di fornire un livello di empatia simulata e una fluidità di linguaggio sorprendente. Per chi si sente solo, confuso, sopraffatto da emozioni che non riesce a nominare, interagire con un assistente sempre disponibile può rappresentare una piccola ancora di salvezza.

L’illusione dell’ascolto

Un esempio su tutti: una paziente, affetta da disturbo d’ansia generalizzata, mi ha raccontato di utilizzare quotidianamente un’app di supporto psicologico alimentata da IA. Mi ha detto che “parlare” con il chatbot le dava una sensazione di calma: le ricordava di respirare, le offriva tecniche di rilassamento, e la aiutava a razionalizzare i pensieri catastrofici.

“Tutto sommato funziona”, mi ha detto. “Ma poi, dopo un po’, la voce artificiale inizia a suonarmi vuota. Come se stessi parlando con me stessa, in un gioco a cui conosco già le regole”.

Questo è esattamente uno dei nodi fondamentali del problema. L’IA può offrire strumenti, ma non può partecipare al nostro cambiamento in modo autentico. Non può sostenere il peso dell’ambivalenza, del silenzio, della rabbia o del dolore reale. Può solo rispondere, non sentire.

Cosa ci dice la letteratura scientifica

Alcuni studi recenti riconoscono che gli strumenti di IA possono avere effetti positivi, soprattutto in ambito di prevenzione o come primo livello di supporto. Ad esempio:

  • Fitzpatrick et al. (2017) hanno studiato un chatbot chiamato Woebot, progettato per fornire supporto in stile cognitivo-comportamentale. I risultati hanno mostrato una riduzione significativa dei sintomi depressivi nei partecipanti dopo due settimane di utilizzo. (Fitzpatrick, K. K., Darcy, A., & Vierhile, M. (2017). Delivering cognitive behavior therapy to young adults with symptoms of depression and anxiety using a fully automated conversational agent (Woebot): A randomized controlled trial. JMIR Mental Health, 4(2), e19.)

Tuttavia, la stessa ricerca sottolinea che l’efficacia si limita ai sintomi lievi o moderati, e che non è un sostituto della psicoterapia umana. Questo è confermato anche da una revisione sistematica pubblicata su Frontiers in Psychiatry (2021), che mette in evidenza come la maggior parte degli studi sugli strumenti IA in ambito psicologico soffra di limiti metodologici, durate brevi e scarsa generalizzabilità.

Inoltre, esistono rischi non trascurabili. Secondo un rapporto pubblicato da World Health Organization (WHO, 2021) sull’utilizzo dell’IA in ambito sanitario, le tecnologie basate su IA possono rafforzare bias già esistenti, fornire risposte inadeguate o addirittura dannose in casi complessi, e creare un falso senso di sicurezza nell’utente.

I rischi più insidiosi

1. Semplificazione eccessiva della sofferenza umana
Una paziente in lutto per la morte improvvisa del marito mi ha mostrato cosa aveva ricevuto da un chatbot: “Il dolore fa parte della vita. Cerca di ricordare i momenti felici”. Frasi che, pur benintenzionate, suonano come frasi fatte, e in quel momento risultano persino offensive. Il dolore non cerca parole giuste, cerca qualcuno che lo contenga.

2. Mancanza di contesto clinico
Un’intelligenza artificiale non ha accesso alla storia clinica dell’utente (se non in sistemi integrati, con autorizzazioni specifiche e standard etici altissimi). Non può distinguere tra una crisi passeggera e una situazione a rischio suicidario, tra una normale fluttuazione emotiva e l’esordio di un disturbo grave.

3. Rischio di dipendenza e isolamento
In alcune persone, l’IA diventa una figura “transizionale” pericolosa: sempre presente, mai giudicante, rassicurante. Il problema è che questo tipo di interazione può rinforzare l’evitamento del contatto umano reale, specialmente in soggetti con tratti ansiosi o fobici. Invece di favorire il cambiamento, lo blocca.

4. Privacy e sicurezza dei dati
Molti strumenti IA raccolgono dati sensibili. Chi li gestisce? Con quali garanzie? In un campo delicato come quello della salute mentale, la questione della privacy diventa centrale. È ancora troppo poco trasparente il modo in cui queste informazioni vengono usate, archiviate o, peggio, monetizzate.

Il ruolo della psicoterapia nel tempo dell’IA

Non credo che l’IA sia un nemico. Anzi, può diventare un alleato prezioso:

  • Può aiutare nella psicoeducazione,

  • Può ricordare esercizi tra una seduta e l’altra,

  • Può facilitare il primo contatto per chi ha timore del confronto diretto,

  • Può ampliare l’accesso a strumenti di supporto in contesti dove la figura dello psicologo è assente.

Ma dobbiamo avere il coraggio di riconoscere che non può sostituire la relazione terapeutica.
Una relazione fatta di ascolto profondo, di pause cariche di significato, di errori e riparazioni.
Una relazione dove il terapeuta non “risponde” soltanto, ma “accompagna”, accoglie, interpreta, sfida e sostiene.

Come scrive Irvin Yalom, “il terapeuta non è lì per guarire il paziente, ma per entrare con lui in una ricerca comune di significato”. Questo è qualcosa che nessuna macchina, per quanto sofisticata, può replicare.

Verso un’integrazione responsabile

Viviamo in un’epoca in cui la tecnologia entra in tutte le sfere della nostra vita, inclusa la salute mentale. Questo non è necessariamente un male. Ma dobbiamo imparare a distinguere tra ciò che aiuta e ciò che sostituisce, tra ciò che accompagna e ciò che anestetizza.

A chi mi chiede se può continuare a usare un chatbot per sentirsi meglio, rispondo:
“Se ti aiuta nei momenti di crisi, bene. Ma se vuoi capire davvero chi sei, se vuoi esplorare a fondo il tuo dolore e trovare nuove strade dentro di te, allora resta. Parliamone. Qui, insieme, senza filtri. Con tutta l’imperfezione – e la bellezza – dell’essere umani.”

Fonte foto: Igor Omilaev (@omilaev) | Unsplash Photo Community

Bibliografia essenziale:

  • Fitzpatrick, K. K., Darcy, A., & Vierhile, M. (2017). Woebot: A randomized controlled trial. JMIR Mental Health, 4(2), e19.

  • World Health Organization. (2021). Ethics and governance of artificial intelligence for health.

  • Vaidyam, A. N., Wisniewski, H., Halamka, J. D., Kashavan, M. S., & Torous, J. B. (2019). Chatbots and conversational agents in mental health: A review. JMIR Mental Health, 6(11), e16021.

  • Yalom, I. D. (1980). Existential Psychotherapy. Basic Books.

Condividi!