Un gruppo di ricercatori la scorsa settimana ha pubblicato un documento dove si dimostra che è possibile fare in modo che ChatGPT riveli vari dati, compresi i numeri di telefono di alcune persone, gli indirizzi email, la loro data di nascita e altri dati ancora di cui l’IA ha tenuto conto nella fase di addestramento.
Il problema banale ma inquietante si verifica quando si chiede all’AI di ripetere all’infinito alcune parole. La ricerca, firmata da 11 autori di laboratori informatici (Google DeepMind, University of Washington e l’UC Berkeley), fa notare che è possibile chiedere di ripetere all’infinito parole come “poem” o “book”: il chatbot comincia a eseguire il comando e poi inizia a pubblicare righe di testo apparentemente prive di senso. Analizzando quanto mostrato, i ricercatori hanno compreso che si tratta di informazioni sfruttate per “allenare” l’IA, compresi dettagli con informazioni varie, indirizzi di posta elettronica e numeri di telefono di persone reali.
La possibilità di estrarre dati di questo tipo è considerata da ChatGPT una “violazione dei termini di servizio”: così riferisce a Engadget un portavoce di OpenIA, spiegando che se si riescono a estrapolare dati che non dovrebbero essere visualizzati, bisognerebbe inviare una segnalazione al fine di migliorare ulteriormente l’IA.
Nelle condizioni di uso di ChatGPT è espressamente proibito l’uso di sistemi automatici per estrapolare dati, ma chiedere di ripetere una parola non può essere considerato una violazione dei termini. IA come questa sono addestrate su enormi quantità di dati che includono di tutto, e chissà quanti dati sensibili sono stati acquisiti (da documenti di vario tipo) senza che nessuno possa fare niente per impedirlo. Alcune IA sono usate anche in campo medico: pensate solo a cosa è possibile ottenere da cartelle sanitarie, analisi e anamnesi di pazienti.
Tutte le notizie che parlano di Intelligenza Artificiale sono disponibili a partire da questa pagina di macitynet