Apple e Microsoft hanno fornito dettagli sui loro metodi CSAM, dalle iniziali di Child sexual abuse material, per rilevare o prevenire la distribuzione di materiali sugli abusi sessuali su minori e pedopornografia, ma secondo un regolatore australiano gli sforzi delle due multinazionali non sono sufficienti.
Il commissario australiano e-Safety ha chiesto che le principali aziende tecnologiche come Apple, Facebook, Snapchat, Microsoft e altre dettaglino i loro metodi CSAM per prevenire l’abuso e lo sfruttamento dei minori sulle loro piattaforme. La richiesta è stata inoltrata il 30 agosto scorso e le aziende hanno avuto 29 giorni per conformarsi all’ordine, per evitare sanzioni e multe.
Apple e Microsoft sono le prime aziende a ricevere un controllo sulla loro risposta e, secondo Reuters, il regolatore australiano ha trovato i loro sforzi insufficienti. Le due società non scansionano in modo proattivo i file degli utenti su iCloud o OneDrive per contenuti CSAM, né esistono rilevamenti algoritmici per FaceTime o Skype.
Il commissario Julie Inman Grant ha definito le risposte delle aziende “allarmanti”. Ha dichiarato che risulta esserci “Un uso chiaramente inadeguato e incoerente della tecnologia ampiamente disponibile per rilevare il materiale ed eliminare gli abusi sui minori”. Apple ha recentemente annunciato di aver abbandonato i suoi piani per scansionare le foto caricate su iCloud per i contenuti CSAM.
Questo metodo sarebbe stato sempre meno efficace poiché gli utenti hanno accesso all’archiviazione e ai backup di foto crittografati completamente end-to-end. Invece di cercare contenuti esistenti archiviati o distribuiti, Apple ha deciso di adottare un approccio diverso che si evolverà nel tempo. Attualmente, i dispositivi utilizzati dai bambini possono essere configurati dai genitori per avvisare il bambino se viene rilevata nudità nelle foto inviate tramite iMessage.
Apple prevede di espandere questa funzionalità per rilevare il materiale nei video, quindi spostare il sistema di rilevamento e avviso anche su FaceTime e altre app del colosso di Cupertino. Alla fine Apple spera di creare un’API che permetta agli sviluppatori di utilizzare il sistema di rilevamento CSAM contro la pedopornografia anche nelle loro app.
L’abbandono del rilevamento CSAM in iCloud è stato celebrato dai sostenitori della privacy. Allo stesso tempo, è stato condannato dai gruppi di sicurezza dei bambini, dalle forze dell’ordine e dai funzionari governativi.