Le funzioni antipedofilia di Apple potrebbero non arrivare più, o se non altro arriveranno in grande ritardo rispetto a quanto inizialmente indicato: lo si ipotizza dal fatto che l’azienda ha eliminato tutti i riferimenti nella pagina web Child Safety dove fino a questo momento aveva raccolto tutte le informazioni utili riguardo.
Il sistema di sicurezza per tutelare i bambini progettato per le versioni dei sistemi operativi Apple attualmente in circolazione è stato annunciato da Apple a inizio agosto e fu subito oggetto di critiche per via del suo funzionamento. Per rilevare le immagini di abusi sessuali sui minori (argomento etichettato con la sigla CSAM, acronimo di Child Sexual Abuse Material) Apple aveva pensato di scansionare le librerie foto su iCloud e tenere gli occhi puntati sulle comunicazioni in modo tale da individuale foto sessualmente esplicite quando vengono inviate o ricevute su iPhone, iPad e gli altri dispositivi di sua produzione.
Per moltissimi ricercatori di sicurezza la pericolosità di questa tecnologia supererebbe quindi le buone intenzioni in quanto si posizionerebbe a un passo dalla sorveglianza, senza considerare il fatto che il sistema – dicono – è ancora acerbo e parrebbe essere alquanto inefficace nell’identificazione delle immagini di abusi sessuali sui minori. Apple ha inizialmente tentato di dissipare i malintesi scaturiti nei giorni successivi pubblicando informazioni dettagliate inclusa una FAQ e vari documenti, nonché rilasciando interviste tramite i dirigenti aziendali.
Ma questo non è bastato a placare le polemiche: il sistema è stato condannato pubblicamente da Whatsapp e una vasta platea di individui e organizzazioni tra cui, come dicevamo, decine di ricercatori di sicurezza tra cui il celebre Edward Snowden, la Electronic Frontier Foundation, l’ex capo della sicurezza di Facebook, ma anche politici e gruppi associati, ricercatori universatari e persino alcuni dipendenti Apple.
Un torrente di critiche che Apple non ha potuto ignorare e che per il momento l’hanno costretta a ritardare l’implementazione del sistema antipedofilia, limitandosi soltanto ad alcune funzionalità di sicurezza per le comunicazioni che avvengono tramite messaggistica con iOS 15.2 dei giorni scorsi.
Apple aveva parlato delle funzioni antipedofilia sulla pagina web Child Safety che rimane online ma priva di qualsiasi riferimento alle funzioni CSAM, ma di cui si trova ancora una traccia nell’archivio web, dove scriveva che la decisione di questo ritardo era stata «basata sul feedback dei clienti, dei gruppi di difesa, ricercatori e altri […]. Abbiamo deciso di dedicare più tempo nei prossimi mesi nella raccolta di dati e apportare miglioramenti al sistema prima di rilasciare queste funzionalità di sicurezza dei bambini di fondamentale importanza.