Se vi state ancora chiedendo se l’intelligenza artificiale applicata alla vita digitale quotidiana sia un argomento divisivo, non chiedetevelo più, lo è, e basta: la prova del nove arriva dalle polemiche in corso in rete in questi giorni relativamente alla mossa di Dropbox in campo AI e alla sua rapida retromarcia.
Dropbox nelle settimane scorse ha aggiunto alcune nuove funzioni di intelligenza artificiale AI attive “di default” per rendere più potente la ricerca interna ai documenti nei profili a pagamento (in quelli gratuiti non c’è neanche, la funzione di ricerca interna).
Il meccanismo funziona esponendo i dati alle istanze di intelligenza artificiale del partner tecnologico dell’azienda che si occupa di servire l’intelligenza artificiale che fa le ricerche, cioè OpenAI.
L’accusa a Dropbox
Negli ultimi giorni queste hanno suscitato una tempesta di critiche. La questione principale è che le persone temono che i loro file privati su Dropbox vengano passati a OpenAI per essere utilizzati come dati di addestramento per i loro modelli AI, affermazione che è stata strenuamente negata da Dropbox e che poi, anche andando a leggere le scritte in piccolo, è confermata in tutti gli aspetti legali possibili: l’opzione di aiutare il training delle AI di OpenAI in effetti non esiste assolutamente.
Eppure la premessa sembrava molto, molto interessante e logica: l’azienda per lavoro sincronizza i dati delle persone e quindi, con l’aiuto delle AI si può pensare un approccio completamente diverso ai propri dati. Dropbox infatti ha lavorato su alcune funzioni che potremmo definire molto sensate: il riassunto su richiesta, “chattare con i propri dati” tramite la Retrieval Augmented Generation.
Ed ha fatto anche un lavoro moderatamente buono nel comunicare il loro funzionamento, considerando che si tratta di novità assolute che ancora devono essere metabolizzate dal pubblico. O, per meglio dire, usando una parola molto cara agli antropologi e ai sociologi, devono essere ancora “addomesticate”.
Per adesso infatti il mainstream nell’uso delle AI è piuttosto banale: copiare e incollare i compiti in classe dal compagno cibernetico e poco altro. Ma, oltre ai deepfake, la verità è che avere a disposizione un servizio capace di analizzare i propri dati contenuti nel serbatoio principale delle nostre vite digitali (e Dropbox è uno degli attori primari nel settore, assieme a iCloud Drive, Google Drive e Microsoft) è potenzialmente una rivoluzione. Si potrebbe fare qualsiasi cosa.
Quando abbastanza non è abbastanza
Tuttavia, c’è modo e modo di farlo. E quando si tratta di privacy dei dati e intelligenza artificiale, un “lavoro moderatamente buono” è un voto insufficiente. Soprattutto se si detiene una quantità di dati privati come quella di Dropbox, che è sostanzialmente enorme. Per questo, in rete è suonato l’allarme. E sempre più utenti hanno cominciato ad agitarsi. Cosa sta facendo Dropbox con i nostri dati? Che fine stanno facendo?
Il punto è duplice: Dropbox in maniera aggressiva ha attivato di default la funzione e dall’altro ha detto più o meno chiaramente che i dati degli utenti vengono scansionati ma non vengono utilizzati per addestrare i modelli di intelligenza artificiale di OpenAI. Solo che la gente non ci crede. C’è una vera e propria mancanza di fiducia diffusa nei confronti delle AI.
E una crisi di fiducia nelle AI proprio adesso che stiamo cominciando a ragionare su come e cosa fare con questo tipo di tecnologia è molto significativa perché potrebbe portare a conseguenze molto importanti in futuro. Anche perché stiamo entrando molto rapidamente nel reame delle teorie del complotto, che si basano non sulle evidenze logiche ma su quelle basate sulla presenza o meno della fiducia.
La leggenda metropolitana del telefono che ci spia
Un esempio viene dal recente passato: l’idea che Facebook ci spii attraverso il microfono del nostro telefono e ci mostri annunci pubblicitari in base a ciò di cui parliamo. La conoscono tutti e molti l’hanno sepolta nella loro testa perché questa teoria circola da anni.
In tre parole? Non è vera. Da un punto di vista tecnico dovrebbe essere facile da confutare: i sistemi operativi dei cellulari non lo permettono, i ricercatori di privacy possono verificare se succede, e comunque fare riconoscimento vocale su scala globale è estremamente costoso dal punto di vista computazionale e quindi non economico. Facebook andrebbe in bancarotta se facesse una cosa del genere.
Dal punto di vista non tecnico bensì legale e comportamentale, è ancora più chiaro che non viene fatto: Facebook ha detto più volte che non lo fa e non ha intenzione di farlo in maniera legalmente vincolante. Tuttavia, la teoria cospirativa che venga fatto esiste ed è diventata talmente diffusa che è nella testa di tutti.
Nessuno pensa che, oltretutto, Facebook non ha bisogno di fare tutto questo: ci sono modi molto, molto più economici ed efficaci per indirizzare gli annunci all’utente piuttosto che spiare attraverso il suo microfono. Questi altri metodi funzionano incredibilmente bene da anni. E comunque l’azienda produce decine di migliaia di annunci all’anno per ciascun utente, il 99,99% dei quali completamente non correlato a quanto detto ad alta voce neanche indirettamente. Però, se si continuano a lanciare i dadi abbastanza a lungo, alla fine si verifica una coincidenza.
Il punto è che nessuna di queste argomentazioni ha importanza. Il danno reputazionale di Facebook è enorme. Certo, Facebook ha altre colpe, se proprio vogliamo analizzare il suo comportamento nel mondo dell’etica della pubblicità, ma certo non quella di aver messo in piedi un sistema di spionaggio illegale basato sulla violazione tecnologica dei dispositivi utilizzati dagli utenti. Ma non ha quella di spiare gli utenti attraverso il microfono dei telefoni.
La crisi della fiducia nelle AI
La stessa cosa sta accadendo con l’intelligenza artificiale? Pare di sì. E c’è poco che aiuti a pensarla diversamente. Non importa quanti annunci, quante carte e documenti, quante entità “terze” (un Antitrust per l’AI?) vengano create. Il sospetto c’è e si alimenta di credenze non tecnologiche ma di tipo sociale.
Dropbox ne è vittima ed è un problema di reputazione e comunicazione, più che tecnologico. L’azienda, una volta nota solo perché il suo servizio era il migliore di tutti quelli presenti sul mercato dal punto di vista dell’efficienza e funzionamento, oggi è vittima dell’immagine che ha costruito di sé nel corso del tempo.
È vittima cioè del rancore accumulato da parte degli utenti a causa dei cambiamenti e rimodulazione dei prezzi, riduzione progressive delle funzioni non a pagamento, politiche sostanzialmente incoerenti nel corso del tempo. Insomma, quando il profilo diventa quello di un’azienda che non ha cura del cliente, pensare che possa vendere i suoi dati per l’addestramento di una AI è quasi automatico. Qualsiasi cosa poi voglia dire l’addestramento di una AI.
Coriandoli digitali nel carnevale delle AI
Perché nella vulgata giornalistica sembra quasi che i dati vengano analizzati e utilizzati per qualche scopo specifico (spionaggio? vouyerismo? furto di identità? copioni digitali?) quando in realtà sono frammentati e sminuzzati in maniera tale da renderli non comprensibili neanche dagli autori stessi.
Se i documenti delle persone sono come alberi nelle foreste amazzoniche di dati, questi vengono tritai e utilizzati come si usano i listelli di legno per fare il parquet: sminuzzati, tritati, pressati e incollati assieme in forma completamente diversa. È come impuntarsi per l’uso dei vecchi documenti sotto forma di coriandoli a carnevale.
Certo, la materia è sempre quella: l’alfabeto e la grammatica e la sintassi e la successione statistica delle parole. Ma la distanza tra i testi di origine, la loro numerosità e la loro irrilevanza è tale che in realtà è molto più pericoloso scrivere su un foglio di carta vicino alla finestra al quarto piano, con il rischio che un satellite fotografi quel che stiamo scrivendo e un operatore annoiato di qualche base militare lo legga per diletto e poi lo metta sui social.
Le soluzioni delle aziende per l’AI
Il riferimento che facevamo prima all’idea di “addomesticare una tecnologia” è proprio qui che diventa rilevante. Non solo i tecnologhi stanno lavorando sulle tecnologie di AI per modellarle in finezza (sostanzialmente stanno lavorando sull’1% dei problemi, visto che il restate 99% è stato risolto da anni e oggi si tratta soprattutto di esecuzione) ma anche i dirigenti del marketing cercano modi (come quello di Dropbox) per creare dei prodotti che consentano di massimizzare il fatturato nel breve o nel medio tempo, come è caratteristico delle aziende fare.
E il pubblico contemporaneamente ha drizzato le orecchie e ci si sta muovendo dentro. Lanciare una nuova tecnologia è come lanciare un nuovo modello di automobile: lo puoi fare una volta sola, poi devi lavorare su quel che hai costruito. E se sbagli è un vero problema. Perché ci vuole tantissimo tempo per cambiare la percezione di un prodotto lanciato male. Accadde una volta, trent’anni fa, quando Mercedes lanciò la prima vettura di classe A.
Una compatta monovolume all’epoca assolutamente inedita che, in una prova indipendente fatta da giornalisti di una rivista di settore, fece la cosiddetta “prova dell’alce”. Cioè, a pieno carico (quindi con le sospensioni caricate al massimo) scartò improvvisamente sulla strada come se dovesse evitare un alce uscito dal bosco.
Lo scarto fu fatale, l’auto si impuntò e cappottò un paio di volte, i giornalisti si ammaccarono e la notizia finì su tutti i giornali. Ci volle quasi un decennio e un investimento miliardario da parte del gruppo Mercedes Benz per riuscire a “ripulire” l’immagine dell’auto che si cappottava se sterzavi troppo bruscamente.
La privacy ulteriore di Stefano Rodotà
La stessa cosa sta accadendo all’intelligenza artificiale: sta subendo un effetto “prova dell’alce”? In un periodo di grande dibattito sulla privacy anche tra gli utenti e non solo tra aziende e istituzioni, l’arrivo a gamba tesa di un prodotto come l’intelligenza artificiale che si “nutre” dei dati degli utenti (e lo ha fatto in maniera spregiudicata, senza informare nessuno) ripropone una delle osservazioni tra le più pregnanti e visionarie di un grande studioso della privacy digitale scomparso da tempo, cioè Stefano Rodotà.
L’ex garante della privacy, parlamentare e professore universitario, sosteneva che la privacy fosse sostanziale per la vita di tutti perché garanzia di libertà e modo per costruire il sé basato sulla propria riservatezza.
Ebbene, Rodotà sottolineava che uno dei maggiori problemi relativi all’utilizzo dei dati autorizzati per la raccolta era dato dagli usi ulteirori, ancora non immaginati: un database di informazioni che oggi non ha un possibile utilizzo perché non esiste una tecnologia capace di sfruttarli, domani può diventare invece una miniera per chi trova il modo di analizzarli ed estrarne valore.
Questo, diceva Rodotà, cozza frontalmente con il tipo di consenso che viene richiesto alle persone quando rendono disponibili i propri dati e deve essere regolato. La mancanza di una cultura informatica e digitale diffuse, ma anche di una cultura giuridica sui diritti che riguardano la riservatezza, la privacy e il trattamento dei dati, che viene casomai semplificata e trasformata in materia di paranoia e teoria del complotto, sta creando i maggiori guasti alla nostra epoca, mettendosi di traverso al processo di addomesticamento dell’intelligenza artificiale. Le conseguenze, come dicevamo, resteranno a lungo, anche dopo che Dropbox sarà definitivamente uscita di scena.
Il succo della questione
Certo, esistono anche altre soluzioni, come i modelli locali, addestrati e tenuti sul proprio computer (ammesso che questo sia più “sicuro”). Ma così si perde molta della potenza e della convenienza dei modelli più grandi nel cloud a causa di preoccupazioni sulla privacy che poi si rivelano errate.
Qual è il problema, quindi? L’intersezione tra intelligenza artificiale e privacy sta diventando una questione cruciale. Dobbiamo essere in grado di tenere conversazioni di altissima qualità al riguardo, con la massima trasparenza e comprensione di ciò che sta effettivamente accadendo.
Questo è già difficile, e lo è ancora di più se non crediamo a nulla di ciò che le aziende ci dicono. Queste aziende devono guadagnarsi la nostra fiducia, questo è chiaro. Come si può fare? Questo non lo sappiamo.
Per tutto ciò che riguarda l’Intelligenza artificiale rimandiamo alla sezione dedicata di macitynet.