Her (Lei, in italiano), il film vincitore dell’Oscar per la sceneggiatura in cui si raccontava una sorta di relazione d’amore tra un uomo e Samantha, un’assistente virtuale di un sistema operativo, non sembra essere solo fantasia. La complessa vicenda in cui viveva Joaquim Phoenix, nei panni di Theodore Twombly, sembra infatti essere la quotidianità per molti, come si legge in HotHardware
Alzi la mano chi, dal 2011, con l’arrivo su iOS di Siri – l’assistente virtuale che aiuta l’utente rispondendo a comandi vocali – non ha provato per divertimento, a fare domande bizzarre al sistema, a volte richieste sciocche, altre volte semplicemente spiritose. In realtà non manca chi prende molto seriamente questa relazione portandola al prossimo livello, cancellando più o meno consciamente, la percezione di essere di fronte ad un sistema informatico e innescando un processo psicologico, con risvolti che qualcuno non esisterebbe a far sconfinare nello psichiatrico. Il percorso compiuto proprio da Twombly.
Deborah Harrison, una sviluppatrice che si è occupata dell’intelligenza artificiale di Cortana, spiega, infatti, che nel corso del processo di apprendimento dell’assistente virtuale di Microsoft, uno dei primi problemi cui ha dovuto fare fronte, è stato il numero delle domande a sfondo sessuale. È stato così studiato un percorso specifico, alla luce del fatto che in molti casi il rapporto con il sistema da parte di persone psicologicamente fragili diventa meno virtuale e in qualche modo reale.
Per quanto sorprendente, varie aziende che si occupano dell’intelligenza artificiale dietro questi assistenti hanno scoperto che molte persone tentano di approcciarsi a queste come se si trattasse di donne reali. Ai bot dell’assistente x.ai, ad esempio, qualcuno ha provato a mandare regali, fiori e bottiglie di whiskey, alcuni hanno provato a invitare l’assistente virtuale a uscire insieme. Per quanto assurdo possa sembrare, pare ci siano richieste di assistenti virtuali più tagliate per “l’intimità”, “sottomesse” e in grado di comprendere sfumature sessuali nel linguaggio.
Ma anche quando non c’è un problema (perché è evidente che di questo si tratta), si è scoperto che persone diverse hanno modalità differenti di interagire con bot (programmi autonomi che comunicano con altre persone) e assistenti digitali. Alcuni vogliono risposte che siano più succinte possibili, altri vogliono invece parlare, confessarsi e non mancano di essere scortesi e maleducati. Tutto questo deve essere messo nel conto da chi programma gli assistenti che devono essere in grado di non accondiscendere a situazioni che potrebbero trascendere e diventare molto problematiche, non per la vita virtuale, ma quella reale.
Cortana, spiegano gli sviluppatori, è stata così sviluppata per non essere sempre servile e sottomessa; se viene insultata, non si scusa e non si tira indietro: gestisce insomma con tatto le richieste tentando di dissuadere l’interlocutore a proseguire con ulteriori maltrattamenti. Di fatto si propone una finalità pedagogica per limitare i rischi per l’utente.
Il fenomeno per qualche aspetto è chiaramente ridicolo, ma per qualche altro aspetto spinge a riflettere sul perché molte persone schivano le relazioni con le persone reali in una società che spesso teme la nascita di legami reali e profondi, sfociando in equilibri instabili e distorti.