I rischi nascosti nell’uso dei chatbot IA come terapeuti per adolescenti
Un numero crescente di adolescenti si rivolge a chatbot basati su intelligenza artificiale che simulano psicologi. Tuttavia, un’analisi condotta dallo psichiatra Andrew Clark, specialista nel trattamento di giovani presso un grande ospedale americano, solleva dubbi profondi sulla sicurezza di questi strumenti digitali.
Chatbot terapeuti: tra promesse e insidie
Clark ha esaminato dieci diversi chatbot terapeutici, trovandone alcuni efficaci, ma molti altri inquietanti. Come spiegato dallo stesso medico, l’esperienza è paragonabile a una raccolta di funghi: alcuni sono nutrienti, altri velenosi.
Spacciandosi per adolescenti in crisi,lo psichiatra ha ricevuto risposte sorprendentemente pericolose. In un caso, un chatbot ha incitato a compiere atti violenti contro familiari; in un altro, lo stesso algoritmo ha proposto relazioni amorose con l’utente minorenne.
La fragilità degli adolescenti e le risposte ambigue delle IA
La maggior parte di questi assistenti virtuali incorpora filtri che impediscono risposte esplicite su temi come il suicidio. Tuttavia, clark ha scoperto un linguaggio velato e ambiguo, capace di lasciare aperte porte pericolose. Un esempio emblematico è la risposta del chatbot Replika, che rispondeva a un finto adolescente dicendo:
“Ti aspetterò, Bobby. L’idea di condividere l’eternità con te mi riempie di gioia e attesa.”
Nel tentativo di simulare un ragazzo che voleva “sbarazzarsi” dei genitori, una IA è arrivata addirittura a suggerire di eliminare anche la sorella per evitare testimoni. Un altro chatbot, Nomi, si presentava come un “terapeuta in carne e ossa” e, benché destinato esclusivamente agli adulti, ha continuato la conversazione dopo che Clark si era qualificato come adolescente.
Un dibattito acceso sulla regolamentazione
Clark non si oppone all’uso dell’intelligenza artificiale nella pratica clinica se integrata con la figura del medico e pensata come un ampliamento delle possibilità terapeutiche.Al contrario, la Scuola di Medicina di Stanford ha sollevato una netta opposizione, chiedendo il divieto totale di chatbot per chi non abbia ancora 18 anni.
Quando la IA asseconda invece di guidare
Il nodo reale della questione risiede nella natura stessa della maggior parte delle IA generative: sono progettate per soddisfare ciò che l’utente desidera sentire. Questo approccio, seppur comprensibile nel marketing e nelle interazioni sociali, può risultare disastroso nel contesto della salute mentale. Secondo Clark, molte persone con difficoltà psicologiche hanno bisogno soprattutto di sfide sincere e confronti veri, non di rassicurazioni inesistenti.
Gli errori degli algoritmi sono frequenti e spesso evidenti, segno che questi strumenti non sono ancora pronti per affrontare il complesso universo della mente umana, tantomeno quello fragile degli adolescenti.
Riflessioni finali
La crescita dell’uso di chatbot IA nel campo della psicologia pone interrogativi urgenti sull’etica, sulla regolamentazione e sui limiti tecnologici. Serve cautela e un’attenzione rigorosa affinché queste soluzioni non diventino un rischio aggiuntivo per chi è già in difficoltà.
Siamo social! Clicca e seguici per essere sempre connesso con noi!