Questo sito contiene link di affiliazione per cui può essere compensato

Home » Macity - Apple » iOS - Sistema operativo » Apple blocca nudità e sexting con la sicurezza per minori in Italia

Apple blocca nudità e sexting con la sicurezza per minori in Italia

Pubblicità

Il sexting è un fenomeno estremamente diffuso che riguarda milioni di adolescenti e preadolescenti: non sorprende che Apple abbia deciso di introdurre anche in Italia e Spagna le funzioni che filtrano immagini contenenti nudità. Minorenni vittime e talvolta protagonisti (ma comunque sempre, a loro volta, vittime della loro incoscienza), i bambini e le bambine scambiano messaggi con immagini contenenti nudità, scattate a se stessi o anche da altri.

Il termine stesso, sexting, che è una crasi fra sex e texting, è un neologismo nato per descrivere una pratica resa possibile solo da quando esistono tecnologie come gli smartphone (telefono, servizio di messaggistica con immagini e fotocamera integrata) che sono arrivati ovunque, sino ad essere in mano ai minori.

Apple, come tutti i big della tecnologia e le numerose associazioni, ha da tempo cercato di contrastare questa pratica. L’azienda guidata da Tim Cook lo fa avendo trovato un modo rispettoso della privacy dei minori e al tempo stesso che permetta ai genitori (e ai minori stessi) di sentirsi sicuri e di poter riprendere il controllo. Si tratta del machine learning con modello residente nell’apparecchio.Apple blocca nudità e sexting con la sicurezza per minori in Italia

Sicurezza delle comunicazioni

A partire dal prossimo aggiornamento di tutti i sistemi operativi di Apple, quindi iOS, iPadOS, watchOS e macOS 12.1, rimane per ovvie ragioni escluso tvOS, acquisteranno la localizzazione per il mercato italiano e spagnolo di questa funzionalità già presente in altri paesi: dagli USA e Canada, che l’hanno avuta per prima, a Gran Bretagna, Australia, Nuova Zelanda, Francia e Germania, tra gli altri.

Le funzionalità sono varie ma la più significativa è quella relativa a Messaggi, l’app di messaggistica di Apple che integra SMS (messaggi verdi) con quelli del servizio di chat multimediale di Apple (iChat, messaggi blu). Il servizio permette ai genitori che hanno creato una condivisione In Famiglia di attivare il meccanismo che riguarda solo gli account registrati come “figli” e “minori” (con due fasce diverse a seconda dell’età del minore: più o meno di 14 anni).

Il meccanismo prevede che tutte le immagini in entrata o in uscita dall’app Messaggi del telefono vengano analizzate in maniera automatica, sicura e senza che vengano fatte uscire dall’apparecchio dal servizio di intelligenza automatica di Apple. In questo modo i messaggi rimangono sicuri, crittati in tutte le fasi di trasmissione, inaccessibili da terzi o dai tecnici di Apple.

L’analisi è fatta in maniera tale da riconoscere immagini contenenti nudità e mostrarle sfocate con un messaggio che informa il bambino che sta ricevendo o che sta inviando un messaggio con nudità. Il minore può decidere di chiedere aiuto a una persona di fiducia (c’è un numero salvato precedentemente al quale può inviare un messaggio) o accedere ad altre risorse utili che vengono presentate. In ogni caso la logica è che il bambino viene rassicurato. I genitori non vengono notificati automaticamente della ricezione o invio di queste foto.

Sicurezza contenuta

Il sistema è, secondo Apple, capace di ottenere buoni risultati tanto da averlo portato praticamente su tutti i mercati principali. È comunque un meccanismo limitato all’uso dell’app Messaggi: la protezione non è attiva su altre app installate come WhatsApp, Telegram e le altre app di messaggistica da sole o incluse dentro app social (da Facebook e Instagram in là).

La sicurezza che offre Apple non è solo relativa al sexting. Nel pacchetto delle Sicurezza per bambini, infatti, l’azienda prevede anche altri meccanismi contro la children exploitation, lo sfruttamento dei bambini. In Siri, Spotlight e nella ricerca Safari Search saranno disponibili con l’aggiornamento una serie di misure per aiutare i bambini (e i genitori) a stare online in maniera sicura, con risposte a domande a tema, indicazioni di quali risorse sono disponibili e quali autorità contattare per presentare un esposto o una denuncia.

Ancora, se le persone fanno ricerche di tipo problematico relative allo sfruttamento dei bambini utilizzando Siri o Spotlight o la ricerca in Safari il sistema operativo propone un testo che spiega che questo tipo di ricerca è potenzialmente pericolosa e problematica, e consigliano quali numeri contattare per avere spiegazioni ed eventualmente aiuto.

Un difficile equilibrio

Come la coperta di Procuste, questo tipo di protezione corre il rischio di non essere mai “giusta”: per proteggere i minori e i bambini si rischia di vincolare la libertà delle persone da un lato, e dall’altra per lasciare tutti liberi di fare quel che si vuole si rischia di creare pericoli oggettivi. La soluzione di Apple è pensata per stemperare per quanto possibile questo contrasto avendo ben chiari quali sono le due linee guida decise dall’azienda: protezione dei minori e tutela della privacy. In questo modo la struttura di protezione messa in piedi da Apple è non solo comprensibile, ma anche più che condivisibile.

Le operazioni di analisi vengono condotte automaticamente in locale sul computer (dal telefono al Mac) e questo permette di salvaguardare la privacy delle persone e dare la fiducia che gli strumenti dell’azienda siano orientati alla protezione e non al controllo. Poi, l’opzione di sicurezza relativa ai minori e più in generale alla children exploitation è gestita in modo tale da essere ferma ma non intrusiva e comunque opzionale. E salvaguarda l’integrità e la sensibilità delle persone coinvolte: non chiama automaticamente la polizia, ma suggerisce di chiedere aiuto e propone delle soluzioni.

Apple blocca nudità e sexting con la sicurezza per minori in Italia

 

Le foto comunque sono rese opache per impedire che la parte di shock dell’esposizione dei corpi possa avere effetto. Infine, il meccanismo è pensato per non essere intercettato da nessuno: Siri “non fa la spia” ma al tempo stesso sa farsi carico di parte del problema. È la soluzione giusta? A nostro avviso è una soluzione migliore di altre che hanno il sapore dell’intrusione nello spazio privato delle persone. Non è buona pedagogia aprire i cassetti dei propri figli minori per controllare a loro insaputa cosa contengono.

Avere un alleato come Siri che sappia filtrare e proteggere da contenuti decisamente inadatti, ma che non espone questi filtri all’occhio di nessuno, né dei genitori né di terze parti, è una opportunità notevole e una garanzia anche per la privacy dei bambini. Se il messaggio che c’è un limite ma che nessun adulto è coinvolto direttamente, e quindi che Siri è un’amica che si prende cura ma non tradisce, la lettura del Safety pensato da Apple può essere positiva anche da un punto di vista pedagogico e mirare a rendere i bambini più autonomi e insieme più sicuri.

Offerte Apple e Tecnologia

Le offerte dell'ultimo minuto le trovi nel nostro canale Telegram

Offerte Speciali

Sconto pazzesco del 22% per iPhone 14 da 256 GB, solo 899€

iPhone 14 a solo 599€, minimo storico Amazon

Su Amazon torna in sconto e va al minimo di sempre l'iPhone 14 nel taglio da 128 GB. Lo pagate 599 € invece che 759 €
Pubblicità

Ultimi articoli

Pubblicità