In occasione della Giornata della protezione dei dati del 28 gennaio (istituita dal 2006 dal Consiglio d’Europa), il CEO di Apple, Tim Cook, , è intervenuto nell’ambito della conferenza CPDP (Computers, Privacy and Data Protection), condannando il modello di business di aziende come Facebook che sfruttano i dati per diffondere e promuovere false informazioni e non si preoccupano di post che invitano all’insurrezione e alla violenza, giacché il loro fine è solo quello di raccogliere dati e targetizzare meglio la pubblicità.
In occasione del Data Protection Day, Cook ha rilasciato una intervista a Fast Company, ripetendo cose già dette nella conferenza prima citata e aggiungendo qualche altro elemento interessante, anche nell’ambito dell’intelligenza artificiale, un argomento di cui conosciamo poco le opinioni del a.d. della Mela.
A chi riferisce che non gli interessa in che modo vengono utilizzati i suoi dati, il CEO di Apple spiega che la raccolta di un volume sempre crescente di informazioni può “spingere un utente all’autocensura”. “Cerco di convincere le persone a pensare a cosa accadrebbe in un mondo nel quale nel quale sai di essere costantemente sotto sorveglianza”. “Quali cambiamenti porterebbe al vostro comportamento? Cosa non fareste?”.
L’utente, riferisce ancora Cook, potrebbe essere invogliato a perdere volontariamente interesse per argomenti che lo affascinano, sapendo che ciò che fa sul web sarebbe costantemente monitorato. Nessuno dovrebbe aspirare a un mondo del genere, dice ancora il Ceo di Apple. Secondo Cook, le persone che sentono questo discorso iniziano a chiedersi cosa stanno facendo e cosa stanno cercando su Internet. Dicono a sé stessi: “Non voglio che gli altri sappiano davvero cosa guardo sul web, perché questo o quell’argomento mi interessa”. Facendo riflettere gli utenti, l’importanza del rispetto della riservatezza dovrebbe diventare evidente.
Un altro argomento trattato nell’intervista di Fast Company è la paura che l’intelligenza artificiale causi danni considerevoli. Il CEO di Apple ammette che l’intelligenza artificiale, di cui Apple fa un grande uso nei suoi prodotti, “può essere usata per cose cattive, azioni malevole che possono essere amplificate dalla tecnologia, evidenziando la necessità di “un’intelligenza artificiale etica,” così come etica deve essere la raccolta dei dati.
Tutti gli articoli di macitynet dedicati alla privacy sono disponibili da questa pagina.