Il modo in cui i chatbot vengono addestrati e quanto interagiamo con loro determinano i problemi dell’AI riguardo la privacy dell’utente medio di Internet. Questa è la risposta che darebbero gli esperti in merito a un argomento, quello dell’intelligenza artificiale, che in questi ultimi tempi sta facendo discutere, principalmente per la rapida ascesa di ChatGPT che avrebbe convinto l’Italia a bloccarlo come misura preventiva, col resto del mondo che adesso pensa se imitarci oppure no.
Il punto è che una parte significativa delle informazioni su cui sono stati addestrati i chatbot deriva da repository come Common Crawl – spiega Megha Srivastava, dottoranda presso il dipartimento di informatica di Stanford ed ex ricercatrice AI presso Microsoft Research – che negli anni hanno accumulato petabyte di dati semplicemente scansionando il web. E sebbene ChatGPT e Bard (Google) usano quella che chiamano «una porzione filtrata» dei dati di Common Crawl, la loro vastità rende «impossibile esaminarli e “disinfettarli” per chiunque».
Il caso che fa riflettere
Il punto è che, per negligenza o per un uso sbagliato delle tecnologie, una parte di questi dati potrebbe contenere informazioni sensibili. Come raccontato su Twitter dall’editorialista di Bloomberg, Dave Lee, a qualcuno è bastato chiedere a ChatGPT quale fosse il suo contatto di Signal per far sì che gli consegnasse il suo esatto numero di telefono; chiaramente si tratta di un caso eccezionale, ma vale comunque la pena considerare a quali informazioni hanno accesso questi chatbot.
Secondo David Hoelzer del SANS Institute, un’organizzazione che fa educazione informatica in merito alla sicurezza, «è improbabile che OpenAI desideri raccogliere informazioni specifiche come i dati sanitari e collegarle ai proprietari per addestrare i suoi modelli di intelligenza artificiale, ma potrebbero comunque essere finiti inavvertitamente lì dentro».
Lo stesso ChatGPT spiega di eessre «programmato per seguire standard etici e legali che proteggono la privacy e le informazioni personali degli utenti» e che «non ha accesso a questi dati a meno che non gli vengano forniti» e Google, dal canto suo, dice di aver programmato barriere simili.
Il problema insormontabile
Quel che è peggio è che pare che questi chatbot non cancellino i dati raccolti e neppure OpenAI, nel caso di ChatGPT, sarebbe in grado di eliminarli su richiesta, motivo per cui le società scoraggiano gli utenti alla condivisione di qualsiasi dato sensibile: l’unico modo è eliminare l’account in modo che tutti i dati associati spariscano, ma come la mettiamo se qualcuno, per scherzo o per vendetta (magari un ex deluso), dà in pasto all’AI il nostro indirizzo, il numero di telefono o il numero di conto in banca? O se peggio ancora lo fa un hacker dopo aver rubato i dati di milioni di persone in un colpo solo?
Come dicevamo a questo non c’è soluzione, ma nel nostro piccolo possiamo fare una cosa già oggi: trattare queste tecnologie con lo stesso sospetto che riversiamo quando installiamo una nuova app o prendiamo in mano un nuovo gingillo tecnologico.