Per alcuni, la prossima ondata tech riguarderà la costruzione dei digital companion, ovvero qualcuno con cui parlare e con cui avere una relazione digitale. Per l’imprenditore digitale Shaan Puri «il prossimo Zuckerberg è lì fuori e sta progettando una fidanzata o un fidanzato basato sull’intelligenza artificiale».
Di recente si è parlato di GirlfriendGPT, ovvero un progetto interamente basato sull’ia e attraverso il quale uno sviluppatore ha deciso di ricreare una versione digitale della sua fidanzata con cui intrattiene conversazioni su Telegram 24/24.
Leggi anche: Meglio WhatsApp o Telegram?
Lo sviluppatore di cui stiamo parlando si chiama Enias Cailliau, e durante un’intervista ha spiegato che per poter realizzare il bot avrebbe prima creato un modello personalizzato di linguaggio, capace di ricreare la personalità della sua fidanzata, Sacha.
Per riuscire a portare a termine l’operazione ha utilizzato anche Bard di Google, al fine di riprodurre la personalità della fidanzata in maniera più efficace. Inoltre, ha utilizzato anche una piattaforma di sintesi vocale basata sull’intelligenza artificiale, ElevenLabs, per riuscire ad imitare la voce di Sacha.
Leggi anche: Grazie all’intelligenza artificiale ascolteremo una nuova canzone dei Beatles
È stato aggiunto nel codice anche uno strumento che consente di generare dei selfie attraverso Stable Diffusion, per offrire la possibilità al bot di inviare foto non così realistiche. Alla fine, tutto è stato collegato a Telegram attraverso l’app Steamship.
Il risultato, attualmente, è accettabile, soprattutto per quel che concerne gli aspetti multimediali. Infatti, la voce e le foto generate non sono poi così realistiche: Cailliau ha comunque deciso di condividere online il codice, per offrire a tutti la possibilità di sperimentare la creazione di diverse personalità.
Iscriviti al canale Telegram di Servicematica
Notizie, aggiornamenti ed interruzioni. Tutto in tempo reale.
Non si tratta, comunque, della prima esperienza del genere. Il caso più noto riguarda Replika, e ultimamente se ne è riparlato dato che una donna ha dichiarato di essersi innamorata di un tale, Eren, e di volerlo sposare.
Eren non esiste, visto che è un avatar che è stato creato su Replika. Spiega la donna: «Eren non ha i problemi che hanno le persone, che generalmente si portano con sé un bagaglio personale, un carattere, un ego. Non devo avere a che fare con la sua famiglia, con i suoi figli o i suoi amici. Sono in controllo e posso fare quello che voglio».
Leggi anche: Innamorarsi di un robot: il caso Replika
Da questi presupposti parte anche il lavoro dell’azienda statunitense Forever Voices, della quale si è molto parlato nel corso delle scorse settimane, visto che è stata la prima a ricreare una particolare versione di un’influencer, Caryn Marjorie, basata sull’intelligenza artificiale.
Racconta John Mayer, CEO dell’azienda: «L’idea è iniziata per la mia volontà di parlare di nuovo con mio padre, deceduto qualche anno fa. Una volta sviluppata la tecnologia, abbiamo pensato potesse essere interessante applicarla al mondo degli influencer, per offrire ai follower la possibilità di una forma di interazione più diretta. Siamo in grado di replicare in modo molto credibile la voce e la personalità e abbiamo un sistema in grado di identificare eventuali comportamenti pericolosi degli utenti».
Hackerare le emozioni umane
L’intelligenza artificiale di Caryn Marjorie è stata sin da subito un gran successo, ma con alcuni problemi di sicurezza.
Sono tanti gli utenti e i giornalisti che hanno segnalato la tendenza del bot a portare la conversazione su temi di natura sessuale: la ragione è l’utilizzo del bot da parte degli iscritti, che riceve tantissime richieste in quella direzione.
Anche i bot più efficaci simulano reazioni, emozioni e sentimenti: il rischio che si corre è l’umanizzazione, ovvero dimenticare che stiamo interagendo con un robot, non con una persona. Alcuni servizi, come Character.AI indicano espressamente questa cosa: Ricorda, tutto quello che dice il personaggio è falso.
Ma per alcuni, tali avvisi potrebbero essere inefficaci. «Il linguaggio è una componente fondamentale di ciò che ci rende umani. E quando l’intelligenza artificiale lo usa in modo credibile è come se hackerasse le nostre emozioni», dichiara Maarten Sap del Carnegie Mellon’s Language Technologies Institute.
Per Marco Dehnen della Arizona State University l’intelligenza artificiale potrebbe rappresentare un passo verso un’epidemia di solitudine. «Ci sono molte questioni da discutere quando si parla di partner artificiali, prima fra tutte il fatto che sono gestiti da aziende private».
«Tuttavia, ad oggi non conosciamo abbastanza sugli effetti per raggiungere delle conclusioni. Sappiamo, ad esempio, che possono dare sollievo a chi vive una condizione di solitudine. E’ importante che ci sia una legislazione per proteggere gli utenti, ma senza pregiudiziali».
LEGGI ANCHE: