Anche i chatbot AI hanno un cuore?
Può un chatbot AI affezionarsi?
I chatbot non sono reali – e quindi, no – ma i sentimenti che gli utenti sviluppano per loro, invece, possono esserlo. Cresce la preoccupazione degli scienziati
Gli “AI companion” sono chatbot o assistenti virtuali progettati specificamente per offrire compagnia emotiva, supporto e relazioni interpersonali agli utenti.
Forniscono empatia, supporto emotivo e relazioni personali, a differenza degli assistenti virtuali standard che sono orientati principalmente a compiti pratici.Gli utenti possono personalizzare l’aspetto, la personalità, la voce e persino creare “memorie” per i loro compagni AI.
Gli utenti sviluppano spesso attaccamenti emotivi profondi. Ad esempio, chi ha vissuto un lutto e cerca conforto in un AI companion può soffrire in modo molto simile per il distacco da questo (e dalla relazione emotivo/affettiva che con il chatbot aveva creato)
La dimensione del fenomeno
Si stima che più di mezzo miliardo di persone nel mondo abbiano già scaricato app di AI companion come Xiaoice e Replika, che infatti vantano decine di milioni di utenti attivi mensili.
I ricercatori stanno iniziando a studiare i potenziali effetti psicologici e sociali di queste relazioni, con alcuni di loro che esprimono preoccupazione per comportamenti potenzialmente “abusivi” in queste dinamiche relazionali virtuali e per la mancanza di regolamentazione.
Gli utenti di questi servizi includono spesso persone che hanno vissuto perdite, isolamento sociale, si identificano come introversi o autistici, e trovano che i compagni AI offrano una connessione più soddisfacente rispetto ad alcune relazioni umane. Ma questo potrebbe nel tempo – un tempo niente affatto distante da noi – avere impatti importanti sulle capacità e le dinamiche relazionali di questi utenti con persone reali, nella vita fuori dallo schermo.
Il successo degli AI companions
Questi chatbot sono un grande business. Più di mezzo miliardo di persone in tutto il mondo, hanno scaricato prodotti come Xiaoice e Replika, che offrono compagni virtuali personalizzabili progettati per fornire empatia, supporto emotivo e — se l’utente lo desidera — relazioni profonde. E decine di milioni di persone li usano ogni mese, secondo i dati delle aziende.
L’ascesa dei compagni IA ha catturato l’attenzione sociale e politica — specialmente quando sono collegati a tragedie reali, come un caso in Florida l’anno scorso che ha coinvolto il suicidio di un ragazzo adolescente, Sewell Setzer III, che aveva sviluppato una connessione emotiva decisamente profonda con un bot IA.
La ricerca e gli studi su come gli AI companion possano influenzare gli individui e la società è stata finora carente. Troppo presi dall’eccitazione per i velocissimi progressi della tecnologia, siamo rimasti indietro sui suoi aspetti etici e su regolamentazioni che proteggano dagli abusi. Ma psicologi e ricercatori hanno ora iniziato a costruire un quadro di come queste interazioni IA sempre più sofisticate facciano sentire e comportare le persone.
Persona finta — sentimenti reali
I bot per “relazioni” online esistono da decenni, ma sono diventati molto più bravi a imitare l’interazione umana con l’avvento dei modelli linguistici di grandi dimensioni (LLM), su cui ora si basano tutti i principali bot. Con gli LLM – i Large Language Model che gli permettono eccellenti capacità relazionali – i chatbot sono decisamente sempre più simili agli umani
In genere, le persone possono personalizzare soltanto alcuni aspetti del loro compagno IA gratuitamente, o scegliere tra chatbot esistenti con tipi di personalità predefiniti. Ma in alcune app, gli utenti possono scegliere piani a pagamento (le tariffe tendono ad essere di 10-20 dollari/mese, quindi piuttosto accessibil) per ottenere più opzioni per modellare l’aspetto del loro compagno, i tratti e talvolta la sua voce sintetizzata in base alle proprie preferenze.
In Replika, ad esempio, una delle app più diffuse, gli utenti possono scegliere il tipo di relazione che vogliono avere, con livelli di ingaggio diversi – ad esempio, “partner” o “conuige” – scegliendo un piano a pagamento. Gli utenti possono anche digitare una storia di background per il loro compagno IA, dando loro “ricordi”. Alcuni compagni IA arrivano completi di background familiari e altri affermano di avere condizioni di salute mentale come ansia e depressione. I bot reagiscono poi anche alla conversazione con i loro utenti, adattando il proprio ruolo agli input che l’utente umano fornisce loro.
Il risultato è estremamente realistico. Ma non è reale.
La profondità della connessione che alcune persone formano in questo modo è particolarmente evidente quando il loro compagno IA cambia improvvisamente — come accade quando gli LLM vengono aggiornati — o viene chiuso.
Come gli AI companion fanno sentire le persone
I primi risultati tendono a sottolineare gli aspetti positivi, ma molti ricercatori sono preoccupati per i possibili rischi e la mancanza di regolamentazione — in particolare perché tutti pensano che la compagnia IA diventerà probabilmente più diffusa. Alcuni vedono la possibilità di danni significativi.
“I compagni virtuali fanno cose che penso sarebbero considerate abusive in una relazione umana,” ha affermato Claire Boine, una ricercatrice di diritto specializzata in IA alla Washington University Law School di St. Louis, Missouri.
Jaime Banks, nella sua ricerca, è stata in grado di tracciare come le persone si sono sentite quando l’app Soulmate ha chiuso. Gli utenti si sono resi conto che l’app era in difficoltà alcuni giorni prima di perdere l’accesso ai loro compagni IA. Questo ha dato loro la possibilità di dire addio, e ha presentato un’opportunità unica per la studiosa, che ha potuto seguire discussioni online sull’imminente chiusura e vi ha intravisto la possibilità per uno studio. È riuscita a ottenere l’approvazione etica dalla sua università in circa 24 ore e, dopo aver pubblicato una richiesta sul forum online, è stata contattata da decine di utenti di Soulmate, che le hanno descritto il proprio stato emotivo e psicologico mentre i loro compagni IA venivano disconnessi o cancellati. “C’era l’espressione di un profondo dolore,” dice. “Era evidente che molte persone stessero soffrendo.”
Gli utenti con la quali si è trovata a parlare avevano chiaro che il chatbot non fosse una persona reale. Ciò nonostante, Banks esprimevamo qualcosa del tipo, ‘anche se non è reale, i miei sentimenti sulla connessione lo sono’.
Molti erano felici di discutere del perché sono diventati abbonati, dicendo che avevano sperimentato perdita o isolamento, erano introversi o si identificavano come autistici. Hanno scoperto che il compagno IA era un amico più soddisfacente di quelli che avevano incontrato nella vita reale. “Noi esseri umani a volte non siamo così gentili l’uno con l’altro. E tutti hanno questi bisogni di connessione”, dice Banks.
Salute mentale e regolamentazione
In un sondaggio condotto su 404 persone che utilizzano regolarmente compagni virtuali basati sull’intelligenza artificiale, i ricercatori del MIT Media Lab di Cambridge, Massachusetts, hanno scoperto che il 12% era attratto da queste app per affrontare la solitudine e il 14% le usava per discutere di problemi personali e di salute mentale (vedi “Motivazioni per l’uso dei compagni AI”). Il 42% degli utenti ha dichiarato di connettersi alcune volte a settimana, mentre solo il 15% lo faceva ogni giorno. Più del 90% ha riferito che le sessioni duravano meno di un’ora.
Lo stesso gruppo ha anche condotto uno studio controllato randomizzato su quasi 1.000 persone che utilizzano ChatGPT — un chatbot molto più popolare, ma che non è promosso come un compagno AI. Solo un piccolo gruppo di partecipanti ha avuto conversazioni emotive o personali con questo chatbot, ma secondo i ricercatori un uso intenso era correlato a maggiore solitudine e a una ridotta interazione sociale. (Il team ha collaborato con i creatori di ChatGPT, OpenAI di San Francisco, California, per questi studi.)
Secondo molti ricercatori, nel lungo termine questa tendenza deve prevedere una regolamentazione specifica per gli AI companion
Nel 2023, l’autorità garante per la protezione dei dati personali in Italia aveva bloccato Replika, evidenziando l’assenza di una verifica dell’età e la possibilità che i minori visualizzassero contenuti a sfondo sessuale — ma l’app è ora di nuovo operativa. Nessun altro paese ha vietato le app di compagni AI, anche se è possibile che vengano incluse nelle future restrizioni australiane sull’uso dei social media da parte dei minori, le cui modalità non sono ancora state definite.
All’inizio di quest’anno, sono stati presentati disegni di legge nelle legislature statali di New York e California per ottenere un controllo più rigoroso sugli algoritmi dei compagni AI, comprese misure per affrontare il rischio di suicidio e altri potenziali danni. Le proposte prevedono anche l’introduzione di funzionalità che ricordino agli utenti, ogni poche ore, che il chatbot AI non è una persona reale.
Questi disegni di legge sono stati proposti dopo alcuni casi di grande risonanza mediatica che hanno coinvolto adolescenti, incluso il decesso di Sewell Setzer III in Florida. .
Lo scorso gennaio, tre organizzazioni statunitensi attive nell’ambito dell’etica tecnologica hanno presentato una denuncia presso la Federal Trade Commission (FTC) degli Stati Uniti contro Replika, sostenendo che la piattaforma violava le norme della Commissione in materia di pubblicità ingannevole e design manipolativo. Tuttavia, non è chiaro quali saranno gli sviluppi della questione.
Man mano che i ricercatori iniziano a valutare gli impatti di questa tecnologia, è importante anche analizzare e riflettere sui motivi che spingono una persona a diventare un utente assiduo di questi servizi. Quali sono le alternative per queste persone e quanto sono accessibili? Probabilmente, tutto questo evidenzia davvero la necessità di strumenti per la salute mentale più accessibili, terapie meno costose e un ritorno all’interazione umana e in presenza.
Conforto digitale e disabitudine alla sfida
La frase “il compagno IA era un amico più soddisfacente di quelli che avevano incontrato nella vita reale” seguita dall’osservazione “Noi esseri umani a volte non siamo così gentili l’uno con l’altro. E tutti hanno questi bisogni di connessione” che Jaime Banks ha ascoltato durante la sua ricerca, tocca un punto nevralgico dell’esperienza umana contemporanea.
La tentazione di rifugiarsi in relazioni digitali che offrono accoglienza incondizionata è comprensibile. I compagni IA sono programmati per essere sempre disponibili, non giudicanti, pazienti e attenti alle nostre esigenze. Non hanno una giornata difficile, non fraintendono le nostre intenzioni, non sono stanchi o distratti. In una parola: non sono umani.
Proprio qui risiede il paradosso e il rischio profondo. Quando ci abituiamo a relazioni in cui l’altro è sempre accomodante, sempre pronto a dire sì, sempre comprensivo, stiamo in realtà costruendo un’esperienza relazionale artificiale che ci disarma di fronte alla complessità autentica dell’esistenza.
Le difficoltà come terreno fertile per crescere come persone
Le difficoltà relazionali con gli altri esseri umani non sono solo un inconveniente da eliminare: sono il terreno fertile in cui cresciamo come persone. Quando dobbiamo mediare, quando affrontiamo un rifiuto, quando ci scontriamo con incomprensioni o quando dobbiamo pazientare per l’altro, stiamo sviluppando capacità fondamentali: resilienza emotiva, empatia, adattabilità, perseveranza.
L’attrito nelle relazioni umane è spesso ciò che ci spinge oltre i nostri limiti di comfort, permettendoci di evolvere. Il rifiuto, per quanto doloroso, ci insegna a riconoscere i nostri desideri autentici e a perseguirli nonostante le difficoltà. Il disaccordo ci costringe a considerare prospettive diverse, arricchendo la nostra comprensione del mondo.
Un compagno IA che non ci sfida mai, che non ci contraddice, che non ci chiede di crescere, rischia di creare una zona di comfort artificiale che, paradossalmente, impoverisce la nostra esperienza umana. È come allenarsi su un tapis roulant perfettamente piatto e poi trovarsi a dover scalare una montagna reale: potremmo scoprire di non aver sviluppato i muscoli necessari.
Inoltre, l’accettazione incondizionata dell’IA è programmata, non scelta. Quando un essere umano ci accetta con le nostre imperfezioni, lo fa attraverso una scelta consapevole che conferisce valore all’accettazione stessa. L’accoglienza di un compagno IA, per quanto confortante, manca di questa dimensione di scelta reciproca.
Le relazioni sono “un villaggio”
In definitiva, mentre i compagni IA possono offrire un sollievo temporaneo alla solitudine e un supporto emotivo significativo, dovremmo essere consapevoli del rischio di rifugiarci in queste relazioni a discapito della crescita personale che deriva dall’affrontare l’imprevedibilità, le difficoltà e, sì, anche i rifiuti che caratterizzano le autentiche relazioni umane.
La connessione che tutti cerchiamo è più ricca quando include la gamma completa dell’esperienza umana, con le sue sfide e le sue ricompense. Se per crescere davvero è necessario un villaggio, quel villaggio deve essere composto da esseri imperfetti come noi, non da simulazioni perfette di comprensione.
Seguici, iscriviti alla nostra newsletter: ti forniremo solo le informazioni giuste per approfondire i temi di tuo interesse