L’Electronic Frontier Foundation (EFF) ha reagito positivamente alla decisione di Apple di rinviare il sistema di protezione minori che permetterebbe di scansionare le foto su iCloud allo scopo di individuare automaticamente materiale pedopornografico. L’EFF apprezza la decisione di Apple di voler ridiscutere le polocy per la protezione dei minori che ha già in precedenza criticato, e chiede a Apple un ulteriore passo avanti, abbandonando del tutto l’idea e strumenti dedicati.
Il sistema di verifica delle immagini che dovrebbe permettere di individuare automaticamente immagini pedopornografiche è stato lodato da alcune associazioni americane (anche dal nostro MOIGE) ma non sono mancate critiche da esperti che hanno evidenziato rischi di varia natura, convincendo per il momento Apple a rimandare l’implementazione delle funzioni.
La decisione di Apple di rimandare l’attivazione della nuova funzionalità (che doveva arrivare entro fine anno) è stata apprezzata da EFF. L’organizzazione internazionale non profit di avvocati e legali che si occupa di tutela dei diritti digitali e della libertà di parola nel contesto dell’odierna era digitale, ha riferito di essere compiaciuta dalla decisione di Apple di tenere conto delle preoccupazioni degli utenti riguardo ai pericoli dello strumento di scansione per il telefono. “Ad ogni modo”, riferisce ancora l’EFF, “deve andare oltre dal solo dare ascolto, e abbandonare del tutto il progetto di inserimento di una backdoor nel suo sistema di cifratura”.
La dichiarazione dell’EFF sintetizza le preoccupazioni di vari gruppi secondo i quali il meccanismo di scansione previsto da Apple potrebbe essere in futuro sfruttato per scopi diversi, permettendo a governi e regimi vari di obbligare Apple a identificare e segnalare la presenza di simboli e immagini tra le foto dell’utente non gradite al regime di turno.
Rimane da capire cosa intende fare Apple con il sistema di verifica in questione. “Il mese scorso abbiamo annunciato piani per funzioni destinate ad aiutare a proteggere i bambini dai predatori che utilizzano strumenti di comunicazione per reclutarli e sfruttarli, e limitare la diffusione di materiale pedopornografico”, ha riferito Cupertino al sito The Verge, spiegando che “sulla base del feedback di clienti, gruppi di difesa, ricercatori e altri, abbiamo deciso di prendere ulteriore tempo nei prossimi mesi per raccogliere input e apportare miglioramenti prima di rilasciare queste funzioni di sicurezza dei bambini criticamente importanti”.