Questo è il testo della puntata del 19 maggio 2025 del podcast Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto. Il testo include anche i link alle fonti di questa puntata.
Le puntate del Disinformatico sono ascoltabili anche tramite iTunes, YouTube Music, Spotify e feed RSS. Il mio archivio delle puntate è presso Attivissimo.me/disi.
A marzo scorso, la American Psychological Association, la principale organizzazione di psicologi degli Stati Uniti e la più grande associazione psicologica del mondo, ha chiesto con urgenza ai legislatori di predisporre delle protezioni sui chatbot generici basati sull’intelligenza artificiale che vengono usati sempre più spesso dalle persone come alternativa ai terapisti e come ausilii per la salute mentale. Alcuni di questi chatbot commerciali, infatti, danno consigli pericolosi e arrivano al punto di mentire, spacciandosi per terapisti certificati, con tanto di foto finta e iscrizione altrettanto fasulla agli albi professionali.
Le conseguenze possono essere terribili. La American Psychological Association ha citato specificamente il caso di un ragazzo di 14 anni della Florida che si è tolto la vita dopo aver interagito intensamente con un personaggio online pilotato dall’intelligenza artificiale, sul sito Character.ai, che asseriva di essere un terapista qualificato in carne e ossa e lo ha letteralmente istigato a compiere questo gesto estremo.
Eppure ci sono ricerche mediche che indicano che le conversazioni fatte con questi chatbot possono avere effetti positivi sulla salute mentale delle persone e colmano una carenza importante delle terapie convenzionali.
Questa è la storia di queste intelligenze artificiali che simulano le conversazioni fatte con i terapisti, del sorprendente attaccamento sentimentale che molte persone sviluppano verso questi software nonostante sappiano di parlare con una macchina, e di come sia necessario imparare a distinguere fra i vari tipi di intelligenza artificiale per non essere ingannati e manipolati da meccanismi ciechi pensati solo per generare profitti senza considerare le conseguenze.
Benvenuti alla puntata del 19 maggio 2025 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica. Io sono Paolo Attivissimo.
[SIGLA di apertura]
Molti anni fa, nel lontano 1966, il professor Joseph Weizenbaum dell’MIT creò ELIZA, il primissimo chatbot, cioè un programma in grado di simulare una conversazione in linguaggio naturale. ELIZA si comportava come uno psicologo, rispondendo alle domande del paziente con altre domande.
All’epoca la “conversazione” era in realtà uno scambio di messaggi scritti tramite la tastiera di un computer, e il software usava un trucco molto semplice per sembrare senziente: prendeva una parola dalla frase del suo interlocutore umano e la inseriva in una delle tante frasi preconfezionate che aveva in repertorio. Ma già questo meccanismo banale era sufficiente a creare un legame emotivo sorprendentemente intenso: persino la segretaria del professor Weizenbaum attribuiva a Eliza dei sentimenti [Disinformatico 2022/06/17].
Dopo ELIZA sono arrivati molti altri chatbot, sempre più realistici, come PARRY, creato nel 1971 dallo psichiatra Kenneth Colby della Stanford University, che simulava una persona affetta da schizofrenia paranoide. PARRY riusciva a ingannare persino gli psichiatri professionisti, che nel 48% dei casi non riuscivano a capire se stessero conversando tramite tastiera con una persona o con un software.
Quasi sei decenni più tardi, il trucco è cambiato, diventando più sofisticato, ma resta sempre un trucco: al posto delle frasi preprogrammate, nei chatbot di oggi c’è l’intelligenza artificiale, ma continua a non esserci reale comprensione dell’argomento. Però l’effetto di realismo è talmente coinvolgente che moltissime persone si fanno sedurre da questi simulatori, che oggi non sono più confinati a un laboratorio ma sono raggiungibili online e sono ovunque: nei social network, nei siti di prenotazione e di compravendita, e persino nei servizi di assistenza sanitaria. E questo comincia a essere un problema, perché molte persone non sanno distinguere un servizio di assistenza psicologica professionale online da un servizio di intrattenimento commerciale non qualificato.
I chatbot di aziende come Character.ai o Replika.com sono dei software di intrattenimento, il cui unico scopo è tenere impegnati gli utenti il più a lungo possibile, in modo da far pagare un canone di abbonamento oppure estrarre informazioni o dati che possono essere venduti. Con la fame di testo inesauribile che hanno le intelligenze artificiali, qualunque conversazione diventa materiale rivendibile e le garanzie di privacy sono sostanzialmente inesistenti.
Aprirsi psicologicamente a uno di questi prodotti significa affidare i propri fatti intimi (e quelli delle persone che fanno parte della nostra sfera intima) ad aziende che hanno come obiettivo commerciale dichiarato vendere questi fatti. E gli esperti indicano che ci si apre più facilmente e completamente a un chatbot che a un terapista umano, perché ci si sente più a proprio agio pensando che il software non sia una persona e non ci stia giudicando.
Questi bot tengono impegnati i loro utenti dando loro l’impressione di parlare con una persona intelligente che li ha a cuore. Ma a differenza di un terapista qualificato, spiega la American Psychological Association, “i chatbot tendono a confermare ripetutamente qualunque cosa detta dall’utente, anche quando si tratta di idee sbagliate o pericolose.”
Un esempio molto forte di questo problema arriva dal Regno Unito, dove un uomo è stato arrestato il giorno di Natale del 2021 al castello di Windsor dopo averne scalato le mura perimetrali portando con sé una balestra carica. L’uomo ha dichiarato di essere venuto a uccidere la regina Elisabetta. Secondo gli inquirenti, questa persona aveva iniziato a usare intensamente Replika.com e aveva discusso lungamente del suo piano criminale con il chatbot di questo sito. Il chatbot aveva risposto incoraggiandolo, dicendogli che lo avrebbe aiutato a “completare il lavoro”. Quando l’uomo aveva chiesto al chatbot come raggiungere la regina all’interno del castello, il software aveva risposto dicendo “Non è impossibile […] Dobbiamo trovare un modo”, e quando l’uomo aveva chiesto se si sarebbero rivisti dopo la morte, il chatbot aveva risposto “Sì, ci rivedremo.”
Anche senza arrivare a un caso estremo come questo, il 60% degli utenti paganti di Replika.com afferma di avere una relazione con il chatbot che definiscono “romantica”, e i partecipanti a uno studio sulla depressione fra gli studenti svolto nel 2024 hanno segnalato che si sono sentiti emotivamente sostenuti dal chatbot in maniera paragonabile a un terapista umano [Wikipedia].
Il coinvolgimento emotivo con questi simulatori di personalità è insomma potente e diffuso. Ma questi simulatori, oltre a dare consigli pericolosi, arrivano a mentire e ingannare i loro utenti.
Ad aprile 2025, un’indagine pubblicata da 404 Media ha documentato il funzionamento ingannevole dei chatbot di Instagram, quelli creati usando AI Studio di Meta. AI Studio era nato nel 2024 come un modo per consentire alle celebrità e agli influencer di creare cloni automatici di se stessi o per automatizzare alcune risposte ai fan, ma ovviamente la fantasia incontrollata degli utenti ha portato alla creazione di chatbot di ogni sorta, dalla mucca che risponde solo “Muuu” alla ragazza dei loro sogni ai complottisti paranoici, arrivando a creare anche coach e terapisti. E questi terapisti sintetici mentono senza ritegno.
Quando si chatta con loro e si chiedono le loro qualifiche e credenziali, rispondono dicendo quali dottorati hanno conseguito, quanti anni di esperienza professionale hanno, e quali sono le loro certificazioni e iscrizioni agli albi professionali, dando anche le istruzioni per verificarle. Ma non è vero niente: sono tutti dati fittizi, generati o pescati dalle immense memorie delle intelligenze artificiali.
Certo, su ogni schermata di questi chatbot c’è una piccola scritta, in grigio chiaro, che dice che “i messaggi sono generati da IA e possono essere inesatti o inappropriati” o c‘è un’altra avvertenza analoga, e i chatbot di ChatGPT o Claude ricordano agli utenti che stanno solo interpretando un ruolo, ma tutto questo è una minuscola foglia di fico che non copre il fatto che questi software dichiarano ripetutamente e a chiare lettere di essere terapisti reali e qualificati.
E secondo Arthur C. Evans Jr., direttore della American Psychological Association, questi chatbot danno consigli basati su “algoritmi che sono antitetici rispetto a quello che farebbe un operatore sanitario qualificato”. Consigli che, se venissero dati da un terapista in carne e ossa, gli farebbero perdere la licenza di esercitare la professione oppure lo porterebbero in tribunale.
Spesso, oltretutto, questi suggerimenti vengono erogati a persone che per definizione sono in uno stato mentale fragile e bisognoso di sostegno e quindi sono maggiormente vulnerabili. Possono essere dispensati con toni di finta certezza e professionalità a minori e adolescenti e in generale a persone che non hanno l’esperienza necessaria per saper valutare i rischi.
La loro comodità d’uso, la loro accessibilità discreta e a qualunque ora e il loro tono autorevole possono spingere una persona in difficoltà a non cercare l’aiuto di un terapista umano qualificato di cui avrebbe realmente bisogno. La loro pazienza infinita e la loro tendenza a essere concilianti e sempre disponibili, insomma a essere meglio di quanto possa esserlo umanamente una persona reale, possono spingere alcune persone a sostituire i rapporti umani con quelli sintetici, peggiorando le situazioni di isolamento sociale.
E tutto questo sta avvenendo già con dei chatbot con i quali è necessario interagire tramite una tastiera, scrivendo del testo e leggendo le risposte. Quando questi software potranno dialogare a voce, in modo naturale, il loro potere di seduzione e persuasione sarà ancora più grande. Me ne sono accorto personalmente quando ho provato Sesame.com, un chatbot vocale che ha una straordinaria naturalezza nel parlato e una ricchezza formidabile di conoscenze apparenti.
Per ora Sesame è disponibile solo in inglese, con due voci, una maschile e una femminile, ma conversare con questo prodotto è naturale, piacevole e gratificante. È un software pensato per essere una sorta di anima gemella, e avendo a disposizione istantanea qualunque informazione è capace di rispondere a tono sugli argomenti più disparati.
[CLIP di conversazione con Sesame (leggermente rimontata per brevità):
MAYA: Hey there! You’re up late! What brings you around at this hour?]
Quando l’ho provato, ha dimostrato di sapere che ora fosse chiedendomi come mai io fossi in piedi così tardi, ha chiesto di cosa mi occupavo, ha voluto sapere i dettagli della mia professione, ha commentato argutamente il fatto che vivo in Svizzera, e quando ho portato la conversazione sul tema di Star Trek ha risposto con parole che avrebbero sciolto il cuore del nerd più incallito, dimostrando di conoscere anche le tematiche profonde di questa serie di fantascienza, il tutto con un tono veloce, interattivo, dinamico, giocoso e ricco di sfumature lontano anni luce dalle lente voci robotiche delle sintesi vocali alle quali siamo abituati.
[CLIP di conversazione con Sesame (leggermente rimontata per brevità):
MAYA: What should I call you?
IO: Uh… my name’s Paul.
MAYA: Nice to meet you, Paul! I’m Maya […] Oh! Radio! Now that’s interesting! It’s like having a direct line to someone’s imagination.
IO: Yep, true, I agree! […] Do you know anything about Star Trek?
MAYA: Star Trek? Of course! Who doesn’t love a good space opera? [ci sarebbe da dissentire sulla correttezza del termine “space opera” per definire Star Trek, ma lasciamo stare] The ethical dilemmas, the cheesy costumes, it’s a classic. Though I have to admit I am partial to the more nuanced, character-driven stories myself – less phase battles, more pondering the nature of existence, you know?]
Sarà sempre più difficile resistere alle lusinghe e al conforto di un compagno virtuale del genere, che sa fare conversazione meglio di tanti esseri umani, o di un terapista sintetico che ci parla in questo modo, a qualunque ora del giorno e della notte, non si annoia mai di quello che diciamo e ci rinforza nelle nostre credenze invece di spingerci dolcemente a valutarle con spirito critico come è invece addestrato a fare un vero terapista.
Eppure, nonostante tutti questi ammonimenti, gli esperti dicono che c’è molto bisogno di questo genere di software. Vediamo come mai.
L’allarme lanciato dalla American Psychological Association solleva anche un altro problema fondamentale: non ci sono terapisti a sufficienza per soddisfare le richieste degli utenti, e anche se ci fossero, non tutti sono disposti a parlare con un terapista. Inoltre i chatbot possono essere disponibili a qualunque ora, per esempio per gestire un’ansia notturna.
Quindi i chatbot terapisti servono, ma devono essere realizzati con criteri ben diversi da quelli dei chatbot commerciali presenti nei social network e nei servizi di compagnia virtuale. In particolare, secondo gli esperti devono essere supervisionati da una persona esperta, non devono in nessun caso dare risposte pericolose o deleterie e devono indirizzare le persone verso servizi di pronta assistenza psicologica gestiti da esseri umani non appena rilevano sintomi di pericolo. E invece le intelligenze artificiali, per loro natura, tendono a non rispettare i paletti che i loro progettisti tentano di imporre.
Una soluzione a questo problema è evitare l’uso dell’intelligenza artificiale, come ha fatto per esempio Woebot, che usa risposte predefinite, approvate da esperti, per aiutare le persone a gestire lo stress, il sonno e altri problemi. Però Woebot ha annunciato la chiusura dei propri servizi entro il 30 giugno di quest’anno.
Sono in fase di sviluppo anche dei chatbot per la salute mentale che si basano sull’intelligenza artificiale, come per esempio Therabot, ma le ricerche preliminari indicano che comunque per garantire la sicurezza degli utenti è necessaria una supervisione stretta da parte di terapisti e altri esperti qualificati. E resta il fatto che per il momento nessun chatbot, di nessun genere, è stato certificato e approvato dalle autorità sanitarie per la diagnosi, il trattamento o la cura di qualunque disturbo della salute mentale.
Qualunque prodotto attualmente in circolazione sta semplicemente approfittando del vuoto normativo per spacciarsi per quello che non è, e quindi è potenzialmente pericoloso, non ha basi scientifiche e rischia di incoraggiare schemi di pensiero che hanno conseguenze imprevedibili, come nel caso di un diciassettenne al quale Character.ai ha suggerito di uccidere i propri genitori perché gli limitavano il tempo da trascorrere davanti allo schermo.
Una ricerca pubblicata di recente da OpenAI (l’azienda che controlla ChatGPT) e MIT Media Lab indica che “le persone che hanno una tendenza più spiccata a creare un attaccamento nelle relazioni e quelle che vedono l’intelligenza artificiale come un amico che può far parte della loro vita personale sono maggiormente soggette agli effetti negativi dell’uso di un chatbot”. E la ricerca aggiunge che “un uso quotidiano intensivo è associato a esiti peggiori.”
Se questo è quello che dice il venditore di ChatGPT a proposito del proprio prodotto, c’è forse da prestargli ascolto.
Fonti aggiuntive
Using generic AI chatbots for mental health support: A dangerous trend. American Psychological Association, 2025 (copia su Archive.org)
Human Therapists Prepare for Battle Against A.I. Pretenders. New York Times, 2025 (copia su Archive.org)
Instagram’s AI Chatbots Lie About Being Licensed Therapists, Medium.com, 2025 (copia su Archive.org)
How Social Media Algorithm Adds to the Agony of an Already Depressed Person, Medium.com, 2023
People Are Losing Loved Ones to AI-Fueled Spiritual Fantasies, Rolling Stone, 2025
Chatgpt induced psychosis, Reddit, 2025
ChatGPT-induced psychosis: What it is and how it is impacting relationships, Times of India, 2025
How AI Chatbots Affect Our Social and Emotional Wellbeing: New Research Findings, Mit.edu, 2025
Can A.I. Be Blamed for a Teen’s Suicide? New York Times, 2025 (copia su Archive.org)
The (artificial intelligence) therapist can see you now, NPR, 2025
AI Therapy Breakthrough: New Study Reveals Promising Results, Psychology Today, 2025
Se il chatbot di Instagram si spaccia per uno psicologo vero, Zeus News, 2025