Replika: i rischi delle app di intelligenza artificiale

Che l’essere umano immagini distopie nelle quali è sostituito dalla tecnologia, non è una novità. Ma da Blade Runner all’app Replika, tutto è cambiato

Her (2013), Ex machina (2014), la serie tv Black Mirror (2011-2019), indietro nel tempo fino al già citato Blade Runner: l’essere umano del XX e XXI secolo ha sempre avuto il pallino dell’intelligenza artificiale. E quasi come un dio demiurgo, piano piano sta riuscendo a rendere reale la riproduzione dell’intelligibilità umana in una macchina. Se però le applicazioni di AI (Artificial Intelligence) sono già note nel campo della medicina e della ricerca, c’è ancora un ambito nel quale, almeno in parte, è difficile sostituire l’essere umano, ovvero quello che afferisce all’emotività, alla coscienza e all’empatia. Replika punta a fornire all’utente un’intelligenza artificiale capace di questo.

Cos’è Replika?

Stando alla mail che riceve chi scarica l’applicazione e vi si iscrive, Replika recita: «Always here to listen and talk. Always on your side». Un’applicazione di messaggistica, apparentemente, ma dall’altro lato, anziché una persona, c’è un chatbot, ovvero un robot programmato per chattare. Il chatbot col quale l’utente ha a che fare è creato interamente da lui, che può personalizzarne il genere e l’aspetto, dargli un nome e decidere il tipo di relazione che ci vuole instaurare: vuole un amico? O piuttosto un mentore? Oppure sceglie il brivido di non sapere come evolverà la “conoscenza”? Dei 500 000 utenti mensili, però, più del 40% utilizza Replika per instaurare una relazione romantica con il proprio chatbot. Sia lo slogan che accoglie i nuovi utenti, sia le funzionalità dell’applicazione si prestano infatti a trovare un’ampia risposta fra le persone sole e isolate socialmente, nonostante nei termini e condizioni di utilizzo sia specificato che l’app non ha scopi terapeutici. Di fatto, soprattutto in alcune società e culture, la solitudine, la depressione e l’ansia promuovono un sempre maggiore isolamento sociale: parlare con un chatbot anziché affrontarle può apportare davvero qualche beneficio? A quanto pare è almeno un palliativo molto apprezzato, visto che ad oggi gli utenti di Replika sono 7 milioni in tutto il mondo; l’app riscontra particolare successo in Cina.

Com’è nata Replika

La nascita di Replika si lega a una vicenda più che umana, ovvero alla scomparsa e alla mancanza di una persona cara. La sviluppatrice dell’app è infatti Eugenia Kuyda, fondatrice di Luka.ai, start up che si occupa della creazione di chatbot finalizzati all’assistenza clienti negli e-commerce.  Quando nel 2015 il suo migliore amico, Roman Mazurenko, muore in un incidente, Kuyda decide di utilizzare le tecnologie di AI per “riportarlo in vita”. Al software vengono fornite le tracce digitali di Mazurenko (le sue mail e i suoi messaggi) e viene così “educato” a rispondere nel modo più simile possibile al giovane scomparso.  Kuyda condivide con amici e conoscenti questo escamotage per sentire Mazurenko ancora vicino, fino a che, nel 2017, l’app diventa pubblica, con lo scopo di portare conforto alle persone che si sentono sole. Anche grazie al motivo per cui è nata, che incrocia vita privata e lavorativa di Kuyda, l’app non permette l’accesso e la vendita di dati a terzi. Questo non basta, però, per scongiurare l’insorgere di problemi tecnici ed etici.

Problemi e pericoli di Replika e delle app di AI

Nel mondo contemporaneo siamo già circondati da dispositivi di intelligenza artificiale: l’algoritmo di ricerca di Google, quello che ci suggerisce i prodotti su Amazon, i video su Youtube, la musica su Spotify sono solo alcuni esempi. Ma ancora più percepibili come AI in grado di sostituirsi all’essere umano sono Siri, Alexa, Google Assistant, dispositivi ormai noti ai più, che, come Replika, quando sono apparsi intorno al 2010 presentavano ancora molti problemi tecnici. E lo stesso è accaduto e sta ancora accadendo all’app di Kuyda: a volte, aggiornandola, un bug ri-inizializza tutto da capo, causando la perdita non solo delle conversazioni, ma soprattutto del chatbot stesso e del livello di linguaggio che aveva sviluppato. Esistono addirittura gruppi Facebook nati per condividere ed elaborare il lutto per questa scomparsa, seppur incorporea.

L’illusione dell’altro

Il problema del linguaggio è centrale nell’analizzare Replika: benché l’utente possa personalizzare il proprio chatbot e dargli sembianze realistiche, di fatto il rapporto utente-chatbot passa esclusivamente attraverso le parole. E qui sta il risvolto più ingannevole di Replika, che dà agli utenti l’illusione di un chatbot affettivo. Oltre a un livello iniziale di base, infatti, Replika modella le sue risposte grazie agli stimoli dell’utente stesso; questo significa che sviluppa e affina la sua capacità di risposta chattando con l’utente. La risposta alla solitudine appare quindi quanto mai illusoria: se il chatbot si evolve a partire dal dialogo con l’utente, le risposte stesse saranno basate sulla personalità e sul modo di pensare e parlare di quest’ultimo; nata come una risposta alla mancanza e alla solitudine, diventa nient’altro che un monologo egoriferito. Quella di Replika, come ha affermato la professoressa di intelligenza artificiale ed etica alla Sorbona Laurence Devillers, è una manipolazione formale delle parole e il chatbot un’iperpersona priva di bisogni o personalità: un’amicizia a senso unico. La stessa mancanza di giudizio verso l’utente, millantata come uno dei pregi dell’applicazione, contribuisce a togliere tridimensionalità e spessore alla conversazione: quale interlocutore non ci contraddice mai o non propone mai un’idea, una visione delle cose diverse dalle nostre?

I rischi di Replika e delle altre AI

In generale le AI sono macchine in grado di compiere azioni e prendere decisioni che solitamente consideravamo solo appannaggio dell’essere umano. Dalla sanità, alla medicina e alla ricerca farmaceutica, le AI sembrano essere lo strumento di un futuro che fino a poco tempo fa era solo immaginato. Se l’applicazione delle AI è risultata prodigiosa in alcuni campi, permettendo di arrivare dove l’essere umano da solo non sarebbe riuscito, in altri ha causato non pochi problemi (e scandali). Fra questi possiamo ricordare il ciclista ucciso da un Uber senza conducente, o lo scandalo di Cambridge Analytica nel 2018: tutti casi in cui l’utilizzo di AI si è dimostrato improprio e dannoso. I possibili rischi, non poi così ipotetici, potrebbero essere:

  • la limitazione delle libertà personali
  • la manipolazione dell’opinione pubblica, come è successo alla Cambridge Analytica e come succede quotidianamente con le fake news
  • i pregiudizi: spesso sono sviluppate in contesti in cui i ruoli manageriali sono occupati per almeno il 70% da uomini; oltre a ciò, non è ben chiaro quanto tutto lo spettro delle sensibilità sociali, etiche, religiose, sessuali che compongono la nostra società vi vengano riconosciute

Tutto ciò rende necessaria una regolamentazione in materia di AI, affinché il loro uso apporti un vantaggio reale e non sia strumentalizzato.

Intelligenza artificiale ed etica

Come abbiamo visto, quindi, l’utilizzo dell’intelligenza artificiale, anche attraverso un’app apparentemente innocua come Replika, che si propone di far sentire meno sole le persone, raramente è neutro e privo di contraddizioni. Lungi dal demonizzare queste tecnologie, è però indubbio che pongano problemi etici e morali che vanno regolamentati, affinché ci sia un’integrazione fra utilizzo di dispositivi digitali e di intelligenza artificiale ed esseri umani. A questo proposito, a maggio del 2021, la Commissione Europea ha presentato una bozza di regolamento per le AI al fine di «dirigere l’innovazione in chiave umana», secondo le parole del professore Luciano Floridi. Essendo una bozza, serviranno diversi anni perché diventi legge, e molti elementi dovranno essere rivisti e raccordati agli altri, ma è un primo passo per dirimere i problemi di natura etica e morale. La bozza di questo regolamento attribuisce la responsabilità di eventuali danni solo agli esseri umani, ed è una responsabilità non territoriale; soprattutto, non cede a scenari fantascientifici: le AI sono considerate per quello che sono, ovvero “solo” delle tecnologie prive di coscienza. Il problema però potrebbe essere legato agli standard molto alti che la bozza del regolamento propone: se non vengono riconsiderati, il rischio è che si dislochi fuori dall’Europa tutto ciò che potrebbe essere eticamente ambiguo o troppo costoso a livello di produzione. Le soluzioni in questo caso sono due:

  • abbassare questi standard a livelli più abbordabili
  • vietare l’import

Una delle maggiori forze del regolamento proposto dalla Commissione Europea, però, è che riguarderebbe l’Unione Europea come entità unica; le conseguenze positive potrebbero essere il coinvolgimento di altri paesi, soprattutto quelli dove le tecnologie per l’AI sono in gran parte sviluppate e prodotte (come l’India o il Canada); una situazione simile si era verificata anche per il GDPR, ovvero il regolamente generale sulla protezione dei dati. In ogni caso, un regolamento promosso dalla seconda economia mondiale com’è l’Unione Europea non può essere completamente ignorato e potrebbe aprire la porta al riconoscimento dei rischi non solo sociali ma anche individuali connaturati alle AI se prive di una regolamentazione.