Questo sito contiene link di affiliazione per cui può essere compensato

Home » Macity - Apple » Mondo iOS » il mio iPhone » Apple abbandona il progetto per rilevare foto di abusi sui minori

Apple abbandona il progetto per rilevare foto di abusi sui minori

Pubblicità

Oltre ad avere implementato nuove funzionalità di cifratura end-to-end per Foto di iCloud, Apple ha fatto sapere di avere abbandonato l’idea di implementare nei suoi sistemi operativi la funzionalità che avrebbe consentito di scansionare le foto caricate dagli utenti su iCloud consentendo di individuare materiale pedopornografico (CSAM, acronimo di Child Sexual Abuse Material), con l’obiettivo di riferire eventuali violazioni al National Center for Missing and Exploited Children (NCMEC), organizzazione non a scopo di lucro che si occupa – tra le altre cose – della tutela di minori.

L’abbandono della tecnologia di rilevamento CSAM è stato riferito da un portavoce di Apple a WIRED: “Dopo ampie consultazioni con esperti per raccogliere osservazioni su iniziative per la protezione dei minori che avevamo proposto lo scorso anno, stiamo dedicando investimenti nella funzionalità di Limitazioni Comunicazioni che abbiamo già reso disponibile a dicembre 2021. Abbiamo inoltre deciso di non portare avanti il precedentemente proposto strumento di rivelazione CSAM per Foto di iCloud. I minori possono essere protetti senza che le aziende setaccino dati personali, e continueremo a lavorare con governi, rappresentanti dei bambini e altre aziende per contribuire a proteggere i minori, preservare il loro diritto alla privacy e rendere internet un luogo più sicuro per i bambini e per tutti noi”.

L’idea di Apple – ora abbandonata – era quella di sfruttare quello che in gergo si chiama hashing profondo per la per la ricerca di similarità, un meccanismo che avrebbe consentito di confrontare gli scatti caricati sul cloud con altre immagini note presenti in archivi CSAM. Trovata una qualche similitudine, la foto poteva essere caricata su iCloud con un “voucher di sicurezza crittografico” e – in determinate circostanze – attivare una procedura di revisione per verificare un legame con materiale pedopornografico.

Dubbi sulla tecnologia di Apple per rilevare le foto di abusi sui minori

Ricercatori contrari a questo sistema, hanno in precedenza evidenziato che il sistema di scansione preventivo in futuro poteva essere usato da qualche governo per obbligare la scansione di altre tipologie di immagini, es. simboli anti-governativi o immagini di proteste. Altri dubbi derivano dai falsi positivi che una simile tecnologia potrebbe generare, “collisione” causata da due immagini differenti con lo stesso hash: se a due immagini era associato lo stesso hash, Apple avrebbe potuto erroneamente rilevare come contenuto CSAM una foto normale.

La Electronic Frontier Foundation aveva lanciato una petizione per chiedere ad Apple di non implementare simili meccanismi di verifica, altre associazioni invece avevano lodato l’iniziativa, indicata come positiva anche da associazione italiane per la tutela dei minori.

Apple ha prima cercato di spiegare in vari modi che il sistema teneva conto di meccanismi sulla privacy, tenendo conto di specifiche porzioni di lettere e numeri (hash) ottenibili confrontando le immagini con archivi CSAM già noti alla ricerca di possibili corrispondenze, e che solo in questi cassi sarebbe scattata la verifica. L’EFF aveva nel frattempo raccolto migliaia di firme chiedendo a Apple di abbandonare il progetto; stesa cosa altre organizzazioni, criticando l’azienda per avere deciso unilateralmente cosa fare su argomenti così delicati. A  settembre dello scorso anno Apple  aveva dichiarato «Visti i riscontri da parte dei clienti, dei gruppi per la tutela dei minori, dei ricercatori e di altri soggetti, abbiamo deciso di prenderci altro tempo nei prossimi mesi per raccogliere suggerimenti e apportare dei miglioramenti prima di diffondere queste funzionalità essenziali per la sicurezza dei bambini”.

Offerte Apple e Tecnologia

Le offerte dell'ultimo minuto le trovi nel nostro canale Telegram

Black Friday

BOZZA PER LISTONE BLACK FRIDAY NON TOCCARE - macitynet.it

Per trovare le migliori occasioni di Black Friday Week, BlackFriday e CyberMonday: visitate la nostra pagina con tutte le offerte Black Friday costantemente aggiornata con tutte le news pubblicate e iscrivetevi ai nostri 2 canali telegram Offerte Tech e Oltre Tech per le offerte lampo e le offerte WOW che sono diverse ogni giorno e durano 16 ore.

Consultate il banner in alto nelle pagine di Macitynet sia nella versione mobile che desktop: vi mostreremo a rotazione gli sconti top.

Dalla 00.00 del 21 Novembre fino alla mezzanotte del 2 Dicembre vi mostriamo tutti i prodotti delle selezioni Apple, monitor, SDD etc. Nel corso delle ore anche l'elenco qui sotto si popolerà con i link agli articoli principali divisi per categorie.

Nota: I prezzi riportati in verde nelle offerte Amazon sono quelli realmente scontati e calcolati rispetto ai prezzi di listino oppure alla media dei prezzi precedenti. Il box Amazon riporta normalmente gli sconti rispetto al prezzo medio dell'ultimo mese o non riporta affatto lo sconto. Le nostre segnalazioni rappresentano una convenienza di acquisto e comunque controllate sempre il prezzo nella pagina di arrivo. Segnaliamo anche offerte dirette delle aziende.

Apple

Video, Foto, Creatività

Audio

Smartphone e Accessori

Accessori computer 

Software

Domotica

Casa, Cucina e Giardinaggio

Sport e attività all'aperto, Salute

Prodotti Amazon e settori di offerte

Pubblicità

Ultimi articoli

Pubblicità