Questo sito contiene link di affiliazione per cui può essere compensato

Home » Macity - Apple » Mondo iOS » il mio iPhone » iOS 18.2, i minori possono segnalare contenuti osceni in iMessage

iOS 18.2, i minori possono segnalare contenuti osceni in iMessage

Pubblicità

Tra le novità di iOS 18.2 (nel momento un cui scriviamo una beta per sviluppatori) una funzionalità attiva per gli utenti australiani e che permette di segnalare contenuti inappropriati direttamente a Apple.

La funzione in questione è una estensione delle misure di sicurezza già viste con iOS 17, in grado di individuare automaticamente in iMessage, AirDrop, FaceTime e nell’app Foto immagini e video con nudità.

Quando un minore riceve immagini che il sistema identifica come nudità, appare una finestre popup per spiegare che è possibile intraprendere azioni, segnalando l’immagine a Apple che, a sua volta, può eventualmente inviare informazioni ad autorità competenti.

Quando appare l’avviso, il dispositivo dell’utente prepara un report, comprensivo di eventuale materiale offensivo, dei messaggi inviati prima e dopo la ricezione del materiale, e informazioni di contatto dei due account coinvolti. L’utente può compilare un modulo e descrivere l’accaduto.

Dopo avere ricevuto il report, Apple esamina il contenuto e può agire sull’account di chi ha inviato il materiale, inclusa la possibilità di disabilitare l’invio di messaggi con iMessage e segnalare il problema alle forze dell’ordine.

Come accennato all’inizio, la funzione in questione è integrata nella beta 1 di iOS 18.2; al momento è riservata agli utenti australiani ma dovrebbe essere disponibile in futuro a livello globale.

The Guardian riferisce che molto probabilmente Apple ha scelto di iniziare ad attivare la funzione in questione dall’Australia perché qui le aziende dalla fine del 2024 saranno obbligate a segnalare alle forze dell’ordine abusi su minori e materiale legato al terrorismo, elementi eventualmente individuati sui servizi di messaggistica cloud.

Il sistema in questione utilizza l’apprendimento automatico sul dispositivo per analizzare le foto e i video allegati e determinare se una foto o un video sembra contenere nudità.

Dubbi sulla tecnologia di Apple per rilevare le foto di abusi sui minori

In precedenza Apple ha provato ad attivare funzionalità di protezione CSAM (Child Sexual Abuse Material) ma si è scontrata con organizzazioni che hanno criticato la tecnologia di scansione, potenzialmente pericolosa perché in futuro, lo stesso sistema potrebbe essere usato da qualche governo per obbligare la scansione di altre tipologie di immagini, es. simboli anti-governativi o immagini di proteste.

Apple aveva abbandonato l’idea ma varie associazioni per la protezione dei minori spingono per l’adozione di sistemi di protezione e un regolatore australiano aveva indicato come insufficienti gli sforzi delle multinazionali in tale ambito.

Offerte Apple e Tecnologia

Le offerte dell'ultimo minuto le trovi nel nostro canale Telegram

Offerte Speciali

Confronto iPhone 15 contro iPhone 14, quale scegliere

iPhone 15 è il vero low cost, a 719 euro costa meno di iPhone 16e

Si allarga lo sconto su iPhone 15. Oggi lo comprate a solo 719,99 €, vicino al minimo storico. Costa dieci euro in meno rispetto ad iPhone 16e ed è per molti aspetti superiore al nuovo modello
Pubblicità
Pubblicità

Ultimi articoli