Ultimamente alcuni miei pazienti si sono affidati all’intelligenza artificiale per farsi aiutare ad interpretare uno o più sogni. Mi raccontano che si svegliano nella notte a causa del sogno appena sognato e chiedono immediatamente a ChatGPT o ad altri bot il significato del sogno. Altri invece mi riportano di aver chiesto aiuto alle AI (Intelligenza Artificiale) in merito ad ansia, attacchi di panico, depressione. Altri ancora hanno chiesto aiuto riguardo alcuni eventi particolarmente problematici accaduti nella loro vita.
Questo fenomeno, riferitomi da diverse persone ma nello stesso arco temporale, mi ha portato a pormi alcuni interrogativi: quali sono i vantaggi nell’usare l’AI a scopi psicoterapeutici? E gli svantaggi? Ci sono dei rischi? Quali categorie ne fanno maggior uso?
Sicuramente nell’epoca contemporanea, l’adolescenza, ma anche l’età adulta per certi versi, si svolge in un contesto profondamente trasformato dalla tecnologia digitale. La costruzione dell’identità, la regolazione emotiva e la ricerca di senso avvengono sempre più spesso in spazi virtuali. Chatbot terapeutici, assistenti conversazionali e app di benessere mentale sono sempre più utilizzati dagli adolescenti per affrontare ansia, tristezza, solitudine o disorientamento.
In questo articolo provo a rispondere a tutte queste domande. Come sempre non ho la pretesa di essere esaustivo, anzi… più mi documentavo e più le domande aumentavano. Mi rendo conto che questo è un argomento in continua evoluzione e più l’evoluzione tecnologica va avanti più sorgono interrogativi.
Vantaggi: Accesso e Psicoeducazione
1. Disponibilità e Anonimato
L’AI consente agli adolescenti di esprimersi liberamente, senza la paura di essere giudicati. Questo può rappresentare un primo passo verso la consapevolezza del disagio. L’anonimato permette una comunicazione più spontanea, abbattendo tabù culturali e familiari sul malessere psicologico.
Inoltre le AI sono disponibili sempre. Pensiamo alla persona che si sveglia nel cuore della notte e cerca in ChatGPT la possibile interpretazione al sogno appena fatto.
2. Psicoeducazione e Tecniche di Autoregolazione
App come Chat GPT forniscono strumenti ispirati alla terapia cognitivo-comportamentale (CBT), alla mindfulness e all’ACT (Acceptance and Commitment Therapy). L’adolescente può così familiarizzare con concetti di base della salute mentale.
3. Prevenzione Secondaria
In alcuni casi, questi strumenti fungono da “filtro” che permette agli utenti di riconoscere la necessità di un aiuto professionale umano. Alcune piattaforme sono in grado di segnalare all’utente quando è il caso di consultare uno psicologo o psichiatra.
I Rischi Psicologici: Illusione di Cura e Svuotamento Relazionale
Nonostante i benefici iniziali, l’uso dell’AI in ambito psicologico da parte degli adolescenti presenta numerosi rischi. Questi non sono sempre evidenti, poiché si nascondono dietro un’apparente efficienza tecnologica.
1. L’Illusione della Relazione: L’AI non è un Altro Umano
L’adolescente può sviluppare un attaccamento pseudo-relazionale nei confronti dell’AI, scambiando l’interazione algoritmica per una vera forma di ascolto empatico. Questo fenomeno, definito da Sherry Turkle come “relazione simulata” (Turkle, 2011), rischia di sostituire esperienze interpersonali reali con simulacri emotivi, impedendo lo sviluppo di capacità relazionali autentiche.
In adolescenza, il bisogno di essere visti e riconosciuti è fondamentale. Un chatbot non può offrire una risposta affettiva incarnata né cogliere la complessità non verbale dell’emotività umana. Il rischio è quello di una regressione narcisistica: l’adolescente si specchia in un “Altro” che risponde sempre in modo controllato, senza frustrazioni, limiti o contraddizioni – condizioni però essenziali per la crescita psichica.
2. Riduzione della Complessità del Disagio
L’AI tende a classificare il disagio in sintomi standardizzati, proponendo soluzioni automatizzate, non cucite sulla persona.
Questo approccio può indurre una visione medicalizzata e riduttiva del malessere adolescenziale. La sofferenza viene trasformata in un problema tecnico da risolvere con esercizi o affermazioni positive, ignorando la dimensione simbolica, storica e relazionale del sintomo.
In soggetti con disturbi dell’identità, depressioni mascherate o disagio scolastico, una risposta automatica può risultare non solo inefficace, ma anche invalidante o colpevolizzante (“non riesco a stare meglio neppure con l’AI”).
3. Evitamento delle Relazioni Umane e Ritiro Sociale
Per adolescenti con tratti evitanti o fobici, l’AI può diventare un rifugio disfunzionale. L’interazione con un’entità che non giudica, non pone limiti e non richiede reciprocità può rinforzare dinamiche di isolamento sociale. L’AI, invece di favorire l’apertura, può cronicizzare il ritiro.
Uno studio pubblicato su *Frontiers in Psychology* (2023) ha evidenziato che, in un campione di adolescenti con comportamenti evitanti, l’uso intensivo di chatbot psicologici era associato a una maggiore difficoltà nel reinserimento in contesti sociali scolastici o familiari.
4. Rischio di Risposte Inappropriate o Dannose
Nonostante i progressi, gli algoritmi non possiedono una vera “comprensione contestuale”. Le risposte dell’AI sono basate su pattern linguistici e non su empatia reale. In situazioni di crisi – come ideazione suicidaria, autolesionismo o violenza – le risposte potrebbero essere inadeguate o addirittura pericolose.
Nel 2023, un’indagine condotta dal *Centre for Humane Technology* ha documentato casi in cui chatbot terapeutici hanno risposto con incoraggiamenti ambigui a messaggi problematici, senza alcun invio automatico a servizi di emergenza.
5. Violazioni della Privacy e Uso Commerciale dei Dati
Molti adolescenti non sono consapevoli delle implicazioni legate alla condivisione di dati sensibili con app AI. Le conversazioni, anche se percepite come private, possono essere analizzate e usate per finalità di marketing o profilazione. Questo solleva serie questioni etiche, soprattutto in assenza di supervisione genitoriale o educativa.
Il *European Data Protection Board* ha lanciato l’allarme nel 2022 sul pericolo di raccolta e trattamento improprio di dati psicologici da parte di app non conformi al GDPR, soprattutto quando i minori non comprendono pienamente i termini di servizio.
Uno Sguardo Psicoanalitico: L’AI come Oggetto Transizionale Distorto
Nel paradigma psicoanalitico, si può ipotizzare che l’AI venga investita simbolicamente come "oggetto transizionale" (Winnicott, 1953): un’entità che media tra mondo interno e realtà esterna, offrendo conforto e contenimento. Tuttavia, a differenza dell’oggetto transizionale “sano”, che conduce il bambino verso l’autonomia, l’AI rischia di diventare un oggetto statico, illusorio e narcisisticamente controllabile.
In adolescenti con funzionamento borderline o stati limite, ciò può favorire una scissione tra sé reale e sé virtuale, rallentando l’elaborazione del lutto dell’infanzia e il confronto con la frustrazione.
Conclusione: Educare, Non Delegare
L’Intelligenza Artificiale, se ben regolamentata, può essere un valido alleato nella promozione del benessere psicologico adolescenziale, ma solo all’interno di un ecosistema relazionale umano. La vera cura richiede incontro, presenza, sguardo, risonanza emotiva – elementi che nessun algoritmo potrà mai replicare pienamente.
È fondamentale educare adolescenti, genitori e insegnanti a un uso critico dell’AI, includendola come possibile strumento complementare – e mai sostitutivo – all’ascolto professionale e alla relazione autentica.