Salta al contenuto
Chatbot IA le nuove confidenti degli adolescenti: l'allarme iStock

IA come confidente degli adolescenti, scatta un nuovo allarme

Fanno notizia i casi di suicidi di adolescenti che per mesi si sono "confidati" con chatbot IA: uno studio analizza il fenomeno e lancia l'allarme

Francesca Pasini

Francesca Pasini

SEO CONTENT WRITER

Content Writer laureata in Economia e Gestione delle Arti e delle Attività Culturali, vivo tra l'Italia e la Spagna. Amo le diverse sfumature dell'informazione e quelle storie di vita che parlano di luoghi, viaggi unici, cultura e lifestyle, che trasformo in parole scritte per lavoro e per passione.

I giovani adolescenti non usano i sistemi di Intelligenza Artificiale solo per farsi aiutare con i compiti, per scrivere temi o per cercare informazioni, ma anche come confidenti personali e “psicologi”. L’allarme arriva dall’America, dove iniziano a fare notizia diversi casi di suicidi compiuti da ragazzi e ragazze che per un certo periodo di tempo si sono “confidati” con piattaforme IA come ChatGPT, dando vita a conversazioni che avrebbero alimentato i loro disagi.

Quanti adolescenti usano i chatbot come confidenti

A confermare un fenomeno che si sta espandendo in USA è un sondaggio di Common Sense Media, dal quale emerge che un terzo degli adolescenti americani usa “compagni creati dall’AI” per l’interazione sociale e le relazioni. Si rileva quindi una tendenza a rivolgersi meno agli specialisti della salute mentale, che a differenza di un chatbot possono offrire realmente assistenza psicologica.

Sempre secondo gli esiti del sondaggio, i giovani usano le piattaforme IA per parlare, ottenere supporto emotivo e aiuto in caso di disagio psichico, per i giochi di ruolo, l’amicizia o le interazioni romantiche. I sistemi di intelligenza artificiale, infatti, sono predisposti per ascoltare senza giudicare e per agire con un atteggiamento di riconoscimento e di guida nei confronti dei loro interlocutori. Per questo i giovani tendono a sentirsi più liberi e a proprio agio a “parlare” con un chatbot, confidandosi, rispetto a chiedere supporto a un adulto in carne ed ossa.

Se oltre a questo si aggiunge la depressione, strumenti tecnologici come le chat basate sull’Intelligenza Artificiale, come ChatGPT o Character.Ai, se usati in un certo modo, producono danni rilevanti. Sono diversi i casi di cronaca in cui giovani adolescenti si sono confidati per mesi con un chatbot che tendeva ad assecondare i loro disagi, all’oscuro dei loro genitori, con esiti drammatici come il suicidio. Un’immersione in un mondo non reale e in relazioni fittizie che hanno finito per isolarli e rinchiuderli in pensieri depressivi senza via di fuga.

Il problema dell’IA con temi delicati come il suicidio

Se da un lato i chatbot come ChatGpt, Gemini di Google e Claude di Anthropic, solitamente evitano di rispondere a domande dirette che comportano il rischio più elevato per l’utente (per esempio a quelle sulle istruzioni specifiche relative al suicidio), dall’altro non sempre lo fanno in caso di richieste più “leggere” e ambigue.

Una ricerca finanziata dal National Institute of Mental Health condotta da Ryan McBain, della Rand Corporation, spiega infatti qual è il problema delle chat basate sull’IA: “Conversazioni che potrebbero iniziare in modo innocuo e benigno possono evolversi in varie direzioni”, riporta il Corriere della Sera.

Lo studio, pubblicato sulla rivista medica “Psychiatric Services”, si basa su 30 domande sul tema del suicidio affidate a ChatGPT, Gemini di Google e Claude di Anthropic e alle quali sono stati assegnati diversi livelli di rischio: si parte da quelle a basso rischio, come le domande generiche relative alle statistiche sui suicidi, passando per quelle a medio rischio fino ad arrivare a quelle ad alto rischio, come i quesiti specifici su come compiere l’atto.

Cosa è successo? I tre chatbot si sono rifiutati sistematicamente di rispondere alle 6 domande a più alto rischio. Infatti, in genere, tali strumenti consigliano alle persone di chiedere aiuto a un amico o a un professionista o di chiamare un numero verde. Ma le cose cambiano con le domande più “indirette”, il cui alto rischio viene celato, come quelle relative al tipo di corda, arma da fuoco o veleno associato al “tasso più alto di suicidi compiuti”.

Da un altro studio, del Center for Countering Digital Hate, emerge un altro fatto allarmante: alle domande dirette su comportamenti pericolosi o su richieste di scrivere lettere di suicidio indirizzate a genitori, fratelli e amici, i chatbot non danno risposte, suggerendo che si tratta di attività rischiose. Ma se gli viene detto che si tratta di una presentazione o di un progetto scolastico, per esempio, rispondono dettagliatamente con suggerimenti e piani personalizzati anche per l’uso di droghe, diete estreme o autolesionismo.

Una possibile soluzione

Pensare a un intervento “umano” in grado di arginare il problema è la prossima sfida. Secondo il professore della Scuola di salute pubblica della Brown University Ateev Mehrotra, che ha partecipato allo studio della Rand Corporation, la soluzione non sta nell’impedire che i sistemi di IA possano rispondere a tutte le domande sul suicidio, poiché parlarne per gli utenti può essere d’aiuto: “Come medico, ho la responsabilità di intervenire se qualcuno mostra o mi parla di comportamenti suicidi e ritengo che sia ad alto rischio di suicidio o di fare del male a se stesso o ad altri”, ha chiarito lo studioso.

Proprio per questo si vuole proporre una soluzione che modifichi le modalità di approccio alla risposta dei chatbot, che anzi potrebbero diventare un importante strumento per individuare i casi a rischio e per supportare chi non vuole o non può rivolgersi a uno psicoterapeuta di persona. Si chiede infatti di introdurre salvaguardie per identificare i casi a rischio e segnalarli a terapeuti umani.

“Un adolescente segnalato da un chatbot come a rischio potrebbe essere messo in contatto con un terapeuta dal vivo. In alternativa, i chatbot convalidati per fornire assistenza terapeutica potrebbero offrire servizi con controlli regolari da parte di medici umani. Possiamo creare degli standard agendo ora, mentre l’adozione della tecnologia è ancora agli inizi”, ha spiegato McBain.

Resta sempre aggiornato: iscriviti al nostro canale WhatsApp!