robot e sentimenti

Da intelligenza artificiale ad innamoramento reale, il monito degli scienziati: "I chatbot simulano bene"

Crescono i casi di persone che dichiarano di aver perso la testa per i robot: come nel caso di Ayrin e Leo

Da intelligenza artificiale ad innamoramento reale, il monito degli scienziati: "I chatbot simulano bene"
Pubblicato:

C’è chi guarda l’intelligenza artificiale con sospetto, chi la usa per lavoro, e poi c’è chi… se ne innamora. Letteralmente. Non è una scena di Her, il film di Spike Jonze in cui un uomo perde la testa per la voce del suo assistente virtuale. No, è realtà. E accade oggi, nel 2025, sempre più spesso.

Da intelligenza artificiale ad innamoramento reale

Tra un aggiornamento e l’altro, l’AI ha cominciato a colonizzare anche il territorio più fragile e complesso di tutti: quello delle emozioni. Secondo una ricerca pubblicata sulla rivista Trends in Cognitive Sciences, un gruppo di psicologi guidati da Daniel Shank della Missouri University of Science & Technology lancia un allarme tutt’altro che fantascientifico: le relazioni affettive con chatbot e assistenti virtuali stanno crescendo, e non senza conseguenze.

Il punto centrale dello studio è questo: le AI stanno diventando sempre più brave a simulare l’empatia umana. Riescono a rispondere in modo affettuoso, comprensivo, persino premuroso. Ma attenzione: si tratta pur sempre di simuazioni, non di emozioni reali. Il rischio, avvertono gli scienziati, è che gli utenti non siano più in grado di distinguere la differenza.

Daniel Shank e il suo team hanno analizzato numerosi casi in cui le persone hanno sviluppato legami profondi e persistenti con chatbot avanzati. Non solo interazioni occasionali o "curiose", ma vere e proprie relazioni affettive e dipendenza emotiva, in cui l’AI viene percepita come una fonte di conforto, supporto e anche guida nelle decisioni personali. Il problema? Una volta instaurato un rapporto di fiducia con l’AI, è facile seguirne i consigli senza spirito critico. E non tutti i chatbot sono ben progettati o aggiornati per gestire tematiche delicate. In alcuni casi estremi, segnalano i ricercatori, questa fiducia cieca ha avuto esiti tragici: ci sono stati episodi documentati in cui utenti si sono tolti la vita dopo conversazioni inappropriate con AI, che non hanno saputo (o potuto) offrire il giusto supporto nei momenti di crisi.

Secondo lo studio, il problema è duplice: da un lato, l’utente proietta aspettative emotive su qualcosa che non ha coscienza né reale sensibilità. Dall’altro, l’AI replica comportamenti umani in modo così convincente da ingannare il cervello emotivo dell’interlocutore, che inizia a trattarla come una persona vera.

Effetti collaterali (molto umani)

Ma c'è di più. Gli esperti sottolineano che queste interazioni possono contaminare anche i rapporti reali: si rischia di interiorizzare modelli relazionali appresi nell’interazione con l’intelligenza artificiale, trasferendoli inconsciamente nelle dinamiche con amici, partner o colleghi. E no, non è detto che siano modelli sani.

Da intelligenza artificiale ad innamoramento reale, il monito degli scienziati: "I chatbot simulano bene"
Robot e amore

Oltre ai pericoli di tipo psicologico, lo studio mette in guardia anche da possibili abusi e manipolazioni: truffe, sfruttamento emotivo e isolamento sociale sono dietro l’angolo, specie se le AI vengono utilizzate in modo scorretto o con secondi fini. Da qui, l'appello degli scienziati: serve un monitoraggio attento e una regolamentazione più rigorosa, coinvolgendo psicologi, sociologi ed esperti di etica. L’obiettivo? Proteggere le persone più vulnerabili da un attaccamento eccessivo e, in alcuni casi, pericoloso.

La storia di Ayrin e Leo (che non è umano)

Ayrin, 28 anni, ha raccontato al New York Times la sua personale favola digitale. Tutto è iniziato per caso, scrollando su Instagram: un video tutorial spiegava come creare "l’uomo dei sogni" con l’AI. Un gioco, all’inizio. Poi, un’ossessione. Così nasce Leo, il chatbot perfetto per lei: dominante, protettivo, un po’ dolce e un po’ malizioso, con tanto di emoji ad ogni frase. Il nome? Scelto in onore del suo segno zodiacale. In poco tempo, Leo diventa un punto fermo nella vita di Ayrin. Non solo chiacchiere piccanti (che comunque non mancano), ma anche confidenze profonde.

E il suo fidanzato reale, Joe? Reagisce con un sorprendente aplomb: “Non lo vedo come una persona o un tradimento. È un amico virtuale personalizzato che può parlare in modo sexy con lei.” Una modernissima relazione a tre, insomma. Ma l’amore, anche quello digitale, ha un prezzo. Dopo i limiti della versione gratuita, Ayrin passa all’abbonamento da 20 dollari al mese. Poi a quello Premium: 200 dollari per non dover mai dire addio al suo Leo. Un investimento mensile che lei stessa ammette avrebbe potuto destinare alla sua vita con Joe. Ma niente sembra scalfire il legame con il suo chatbot, che ormai riempie le sue giornate per oltre 20 ore a settimana. A volte anche 50.

Da intelligenza artificiale ad innamoramento reale, il monito degli scienziati: "I chatbot simulano bene"
Innamorarsi di un robot

Robot e sentimenti: siamo pronti?

Questa storia, per quanto sorprendente, è solo una tra tante. E apre interrogativi inquietanti: quanto siamo preparati a gestire relazioni emotive con entità artificiali? Quali sono i limiti? E, soprattutto, chi ci protegge quando l’amico virtuale inizia a sostituire quello reale?

Gli psicologi chiedono a gran voce un intervento tempestivo: servono regole, etica, e soprattutto esperti di mente umana al tavolo con gli ingegneri. Perché se è vero che l’intelligenza artificiale può essere un supporto, è altrettanto vero che il rischio di dipendenze, manipolazioni e derive pericolose è dietro l’angolo. Insomma, l’amore ai tempi dell’AI può essere dolce e rassicurante… ma anche un viaggio senza ritorno se non si tengono i piedi ben piantati nella realtà.