No, Apple non controllerà le immagini dentro al vostro iPhone, ma solo quelle caricate su iCloud. È questo quel che spiega come una nota diffusa ieri sera Cupertino a margine dell’iniziativa di lotta alla pedopornografia. Il sistema che opera su iOS 15 e iPadOS 15 nel contesto del mercato americano in base al quale saranno analizzate immagini alla ricerca di materiale pedopornografico funziona infatti solo con le immagini caricate su iCloud
La tecnologia, come abbiamo spiegato qui, viene effettuata con un sistema che in gergo si chiama hashing profondo per la per la ricerca di similarità, un meccanismo che consente di confrontare gli scatti caricati sul cloud con altre immagini presenti in archivi di foto di abusi.
La scansione delle immagini viene effettuata automaticamente e Apple ha confermato al sito Macrumors che non viene effettuato nessun controllo sulle immagini caricate se l’opzione “Foto di iCloud” è disattivata (la funzione che carica automaticamente e conserva foto e video su iCloud per poterli sfogliare, cercare e condividere da qualsiasi dispositivo).
Il meccanismo di identificazione di immagini pedopornografiche scatta durante la fase di caricamento delle foto su iCloud, con Apple che attiva delle verifiche e avvisa il National Center for Missing and Exploited Children (NCMEC), organizzazione non a scopo di lucro che si occupa – tra le altre cose – della tutela di minori scomparsi.
Questo sistema e la struttura tecnica intorno a cui si fonda il mondo iPhone e iOS rende impossibile “scansionare gli iPhone”, come si legge ancora oggi nei titoli di qualche giornale. Apple da anni del resto afferma di non essere in grado di “vedere” quel che si trova dentro ad un telefono, affermazione che ha ribadito anche di fronte ai giudici di diversi tribunali che le chiedevano di avere accesso ai dati di telefoni di criminali e terroristi.
È comunque vero che la maggior parte degli utenti iPhone hanno attivato il sistema che automaticamente carica le ultime mille immagini scattate su iCloud e solo disabilitando manualmente questo sistema Apple non riesce a fare la scansione.
Del resto alcuni ricercatori specializzati in sicurezza hanno espresso dubbi sul sistema di controllo di Apple, evidenziando che in futuro il sistema di controllo potrebbe essere sfruttato per controllare altre tipologie di immagini, con implicazioni relative alla politica e alla sicurezza.
Google, Microsoft, Facebook e altre aziende offrono funzionalità simili per combattere il materiale pedopornografico online e impedire che le varie piattaforme vengano utilizzate per diffondere questo tipo di contenuti.