Questo sito contiene link di affiliazione per cui può essere compensato

Home » Macity - Apple » Mondo iOS » iPhone » Craig Federighi svela nuovi dettagli sul sistema antipedofilia

Craig Federighi svela nuovi dettagli sul sistema antipedofilia

Pubblicità

In una occasione più unica che rara, Apple ammette di aver gestito male l’annuncio del sistema antipedofilia, contribuendo alla confusione creatasi al riguardo: lo riconosce apertamente Craig Federighi intevistato dal Wall Street Jorunal, offrendo nuovi dettagli sul funzionamento che rassicurano gli utenti per quanto riguarda privacy e riservatezza dei dati.

«Col senno di poi, introdurre queste due caratteristiche contemporaneamente è stata una ricetta per questo tipo di confusione. Rilasciandoli allo stesso tempo, le persone li collegavano tecnicamente e si spaventavano molto: cosa sta succedendo ai miei messaggi? La risposta è… non sta succedendo nulla con i tuoi messaggi».Craig Federighi svela nuovi dettagli sul sistema antipedofilia

Il top manager di Cupertino precisa che il sistema antipedofilia di Apple non può essere sfruttato da governi e forze di polizia grazie a più livelli di verificabilità. Come spiega il documento pubblico FAQ, il sistema non fa un match fra le immagini presenti sul telefono e non riconosce contenuti di natura pedopornografica. Ciò che avviene è la generazione di codici univoci per le immagini, chiamati “perceptual hash”, che vengono confrontati con una lista di codici forniti dal NCMEC e relativi a contenuti pedopornografici già noti (il cui possesso negli USA è illegale).

Se c’è un riscontro (e Federighi nell’intervista ha chiarito che devono essere trovate circa 30 corrispondenze con foto pedopornografiche già segnalate dal NCMEC), il sistema genera un “voucher di sicurezza” associato all’immagine. Questo voucher viene caricato su iCloud Photos assieme alla foto, e solo al raggiungimento di una certa soglia di riscontri Apple procede alla verifica della segnalazione. Il sistema non prevede in alcun modo il rilevamento del contenuto delle immagini e quindi non scansiona e soprattutto non vede il contenuto del Rullino di iPhone.
 
La generazione di codici univoci avviene solo per le foto che verranno caricate su Foto di iCloud. Se questa funzione viene disattivata dalle opzioni, nessun hash (codice univoco) verrà creato. Per la prima volta apprendiamo da Federighi che l’avviso ad Apple per attivare un controllo scatta solo dopo che il sistema ha individuato circa 30 corrispondenze nelle foto conservate su iPhone di un utente con materiali e contenuti CSAM, sigla delle iniziali di Child Sexual Abuse Material.

Uno degli strumenti, annunciato la scorsa settimana per il rilascio entro la fine dell’anno, suona effettivamente un allarme quando qualcuno carica materiale pedopornografico noto sul servizio di archiviazione cloud dell’azienda, noto come iCloud. A differenza di altri provider cloud, Apple non esegue la scansione di tutto nell’account online di un utente. Invece, Apple ha escogitato un mezzo per identificare le immagini su iPhone che corrispondono a un database di immagini illegali note.

Se una persona non carica mai immagini su iCloud, Apple non viene avvisata. Se un numero sufficiente di immagini offensive viene caricato su iCloud, il sistema avvisa Apple e l’azienda quindi controlla quelle immagini specifiche per confermare che sono in violazione prima di segnalarle al National Center for Missing and Exploited Children, che funge da punto di smistamento per le segnalazioni di abusi sui minori».

«Se e solo se raggiungi una soglia di qualcosa nell’ordine di 30 corrispondenti immagini pedopornografiche conosciute, solo allora Apple saprà qualcosa sul tuo account e sa qualcosa su quelle immagini e, a quel punto, sa solo su quelle immagini, non su una qualsiasi delle tue altre immagini. Questo non è fare delle analisi perché avevi una foto di tuo figlio nella vasca da bagno? O, se è per questo, avevi una foto di qualche altro tipo di pornografia? Questo corrisponde letteralmente solo alle impronte digitali esatte di specifiche immagini pedopornografiche conosciute».federighi antipedofilia

Il dirigente Apple spiega anche il vantaggio in termini di sicurezza e privacy di effettuare la ricerca direttamente su iPhone. «Poiché è su [iPhone], i ricercatori di sicurezza sono costantemente in grado di analizzare ciò che sta accadendo nel software [del telefono] di Apple. Quindi, se sono state apportate modifiche per espandere l’ambito di questo in qualche maniera, in un modo che ci eravamo impegnati a non fare, c’è verificabilità, possono individuare ciò che sta accadendo».

Infine alla domanda se il database delle immagini usate per la ricerca può essere compromesso, magari inserendo materiali politici, Federighi ha dichiarato che l’archivio del sistema antipedofilia è costruito con l’inserzione di immagini da più organizzazioni per la sicurezza dei minori, di cui almeno due in diverse giurisdizioni. Sia le organizzazioni che revisori indipendenti potranno verificare che il database contiene solo immagini di questo tipo.

Tutti gli articoli di macitynet che parlano di Privacy e Sicurezza sono disponibili ai rispettivi collegamenti.

Offerte Apple e Tecnologia

Le offerte dell'ultimo minuto le trovi nel nostro canale Telegram

Offerte Speciali

Sconto pazzesco del 22% per iPhone 14 da 256 GB, solo 899€

iPhone 14 a solo 599€, minimo storico Amazon

Su Amazon torna in sconto e va al minimo di sempre l'iPhone 14 nel taglio da 128 GB. Lo pagate 599 € invece che 759 €
Pubblicità

Ultimi articoli

Pubblicità