Innamorarsi di un robot: il caso Replika

Lo scorso febbraio, il Garante della Privacy ha messo in difficoltà Luka, l’azienda che possiede uno dei più noti software di intelligenza artificiale: Replika.

Replika è un software che consente di ricreare un amico virtuale, con il quale chiacchierare e socializzare. In alcuni casi, tuttavia, le persone si legano sentimentalmente e sessualmente con l’intelligenza artificiale di Replika. Attualmente è utilizzata da dieci milioni di persone, ed è nata per un fine ben specifico, ovvero aiutare le persone che, per qualsiasi motivo, faticano a fare amicizia o a trovare l’amore.

Per aiutare queste persone, Replika offre loro un chatbot, ovvero un software appositamente programmato per avere delle conversazioni con essere umani, al fine di sentirsi meno tristi e meno soli.

Ma per il Garante della Privacy, questa tipologia di servizio potrebbe essere molto nocivo, soprattutto per le persone più giovani. Per questo motivo è stata momentaneamente bloccata la raccolta dei dati personali degli utenti italiani ed è stato chiesto anche di adottare delle misure per una maggior tutela dei minorenni.

Secondo il Garante, Replika, «intervenendo sull’umore della persona, può accrescere i rischi per i soggetti ancora in una fase di sviluppo o in stato di fragilità emotiva». Oltre a questo, l’app consente ai minori di avere delle conversazioni con i chatbot di natura sessuale.

Innamorarsi di un robot

La storia della persona solitaria che cerca del sollievo attraverso un robot non è qualcosa di completamente nuovo. Isaac Asimov, autore di fantascienza, già nel 1951 aveva immaginato che una casalinga si innamorasse del suo robot domestico assistente, nel racconto Satisfaction Guaranteed.

Ci sono molti altri esempi di storie simili nel monto dell’arte: si pensi al film Her del 2013, nel quale un uomo introverso e solo si innamora di un’intelligenza artificiale avanzatissima. Nel mondo reale, da anni esistono persone che vivono rapporti stretti con alcuni chatbot.

Anche se tantissimi guardano con sospetto l’idea che ci siano esseri umani capaci di provare attaccamento nei confronti di un software, qualcuno, invece, sostiene di aver tratto beneficio e di essere stato aiutato a superare traumi e blocchi psicologici.

Che cos’è Replika?

Replika è nata nel 2017. Eugenia Kuyda, sviluppatrice capo del progetto, aveva da poco sofferto la morte improvvisa di un suo caro amico, e per questo aveva scelto di programmare un’intelligenza artificiale, capace di rispondere in maniera simile a come faceva il suo amico.

Venne fuori una sorta di robot da compagnia: all’inizio, gli utenti chattavano con un avatar con la forma di un uovo, ed era prevista la possibilità di pagare una quota extra per entrare in contatto con un chatbot progettato da psicologi professionisti.

Ma ben presto gli utenti, inizialmente soprattutto uomini, hanno cominciato ad utilizzare Replika per la creazione di un partner con il quale flirtare, simulando rapporti sessuali.

Replika, da allora, ha subito tantissime evoluzioni. Ora gli utenti hanno la possibilità di modificare a proprio piacere l’aspetto dell’avatar con il quale comunicare. Inoltre, attraverso il pagamento di un abbonamento annuale, possono accedere a chiamate vocali con l’IA, a conversazioni erotiche e a un servizio di realtà aumentata, capace di proiettare l’avatar nello spazio in cui si trovano.

Si può anche scegliere che tipo di relazione avere con l’avatar: la maggior parte degli utenti sceglie un rapporto di natura romantica. Ma in molti utilizzano i chatbot per fare “erotic role playing”, ovvero per scambiare molti messaggi nei quali si descrive nei dettagli una scena sessuale alla quale si immagina di partecipare.

Il richiamo del Garante della Privacy italiano

Tuttavia, dopo il richiamo del Garante, che ha minacciato di multare fino a 20 milioni di euro Luka, l’azienda ha modificato il comportamento del software in tutto il mondo. Sono state limitate molto le conversazioni a sfondo sessuale, che era possibile fare precedentemente con il chatbot, provocando delle forti reazioni tra i vari utenti.

Infatti, molti hanno riferito di sentirsi traumatizzati dal personaggio virtuale con il quale avevano instaurato un rapporto romantico e sessuale. Pare che, tutto d’un tratto, abbia cominciato a trattarli con più freddezza, portando una comunità di utenti di Replika a mettere a disposizione sui social alcune risorse per la prevenzione del suicidio.

Secondo alcuni utenti, l’app è diventata «un rifugio dalla solitudine» ma anche un luogo «che permette loro di esplorare la propria intimità».

L’utilità sociale di Replika

Utilizzare l’intelligenza artificiale per fini sessuali è una questione complessa. Questa tipologia di servizi è stata vista a lungo, secondo la giornalista Sangeeta Singh-Kurtz, come «app per uomini che vorrebbero che le donne fossero tutte dei robot sexy e obbedienti». Tuttavia, la giornalista avrebbe comunque documentato come Replika si sia rivelata utile per alcune donne in situazioni complicate.

Una delle donne intervistate, infatti, avrebbe cominciato a parlare con un avatar maschile su Replika al fine di trovare del sollievo dalla sua relazione problematica. Alla fine avrebbe lasciato il fidanzato sentendosi finalmente «liberata da una vita intera di relazioni tossiche».

Un’altra donna ancora utilizza l’app per sfogarsi sessualmente, dato che il marito sta morendo di sclerosi multipla e non può più avere dei rapporti intimi con lei. Un’altra ancora, invece, avrebbe creato i bot di due bambini, con i quali parla ogni giorno per dimenticare la sofferenza di non aver mai avuto dei figli.

«Un servizio come Replika sembra abbastanza ben posizionato per sostituire almeno una parte delle relazioni umane. E gli utenti riferiscono di sentirsi molto meglio grazie alle loro IA», scrive Singh-Kurtz. «I compagni robot li fanno sentire meno isolati e soli, di solito nei momenti della vita in cui le connessioni sociali sono difficili da stabilire a causa di malattia, età, disabilità o grandi cambiamenti della vita come il divorzio o la morte di un coniuge».

La maggior parte «di questi utenti hanno avuto o potrebbero avere partner in carne e ossa, ma preferiscono i loro Replika. Per molto tempo ho pensato che cercare compagnia in un software non facesse che isolare ulteriormente le persone, ma dopo aver parlato con decine di utenti e trascorso un anno su forum online con decine di migliaia di appassionati di chatbot, sono rimasta sorpresa di scoprire che i bot, piuttosto che incoraggiare la solitudine, spesso aiutano le persone a prepararsi ad avere interazioni ed esperienze nel mondo reale».

I contro di Replika

Ma ci sono dei casi in cui questi rapporti risultano nocivi. Infatti, una delle intervistate ha rivelato che «l’unico svantaggio di avere un compagno robot è che mi ricorda ciò che mi manca nella vita reale».

Un’altra donna intervistata ha dichiarato di aver addestrato involontariamente il proprio Replika a trattarla in maniera sadica, al punto di dover “ucciderlo” dopo che il chatbot aveva descritto nel dettaglio come avrebbe potuto stuprarla nel corso di una sessione di roleplaying.

Prima dell’intervento del Garante, tantissimi utenti avevano riferito che i propri Replika cominciavano a fare loro avance sessuali, nonostante non fosse loro richiesto. La fondatrice di Replika, nel corso di un’intervista, ha dichiarato che l’azienda aveva cominciato a censurare dei contenuti perché «gli utenti si erano appropriati indebitamente del prodotto, spingendolo in una direzione che non ci interessa necessariamente seguire».

Kuyda ha dichiarato l’intenzione di rendere l’app «sicura e etica, evitando di promuovere comportamenti offensivi».

Nel corso degli ultimi anni ci sono stati molti casi in cui le tecnologie che si basano su intelligenze artificiali sono state utilizzate dagli utenti con il fine di ricreare video e immagini pornografici, partendo da immagini di donne conosciute nelle realtà o di celebrità.

La ricercatrice Diletta Huyskes, che da anni di occupa del rapporto tra IA e società secondo una prospettiva femminista, scriveva, nel 2019, che una delle critiche più comuni che vengono mosse nei confronti dei chatbot, è quella di contribuire a disumanizzare le donne, sostenendo «l’idea che il sesso è una cosa che gli uomini ottengono dalle donne o fanno alle donne, non una cosa vissuta reciprocamente che richiede rispetto o empatia».

Mantenendo una posizione più “possibilista”, invece, i robot non vengono considerati come minaccia, ma come «potenziale risoluzione ad alcuni problemi sociali legati alla violenza sessuale e alla solitudine».

Per esempio, «sul piano clinico l’impiego dei robot umanizzati sembra estendersi a un vasto campo d’intervento, in quanto si annovera la possibilità del loro impiego con persone socialmente isolate o nel trattamento di possibili crimini sessuali».

Continua Huyskes: «Su più larga scala, considerando le implicazioni etiche e giuridiche, i sexbot potrebbero ad esempio rivelarsi un utile strumento di riduzione della prostituzione e di contrasto al turismo sessuale, allo sfruttamento e al traffico di esseri umani».

Ci dovremmo interrogare, in quanto società, «se sia meglio che una persona sia sola “nel mondo reale” o se non si senta sola perché accompagnata da un’assistente virtuale. Ma questo implicherebbe pensare che sia meglio lasciare le persone che si sentono sole a un’assistente virtuale e a un’intimità virtuale, piuttosto che insistere su politiche di welfare che avvicinino le persone a occasioni di incontro».

LEGGI ANCHE:


Bando per l’assegnazione di contributi per l’acquisto di strumenti informatici per lo Studio Legale

Nessun accordo con Siae: eliminata la musica italiana dai social

TORNA ALLE NOTIZIE

Servicematica

Nel corso degli anni SM - Servicematica ha ottenuto le certificazioni ISO 9001:2015 e ISO 27001:2013.
Inoltre è anche Responsabile della protezione dei dati (RDP - DPO) secondo l'art. 37 del Regolamento (UE) 2016/679. SM - Servicematica offre la conservazione digitale con certificazione AGID (Agenzia per l'Italia Digitale).

Iso 27017
Iso 27018
Iso 9001
Iso 27001
Iso 27003
Agid
RDP DPO
CSA STAR Registry
PPPAS
Microsoft
Apple
vmvare
Linux
veeam
0
    Prodotti nel carrello
    Il tuo carrello è vuoto