Meta (Facebook) ha riferito di aver speso 5 miliardi di dollari per la sicurezza globale l’anno scorso, impiegando centinaia di persone nei reparti che contrastano contenuti violenti e terroristici: non tutte le aziende hanno questo tipo di risorse, ma Meta ha condiviso gratuitamente un nuovo strumento open-source che può aiutare a combattere lo sfruttamento minorile, la propaganda terroristica e altri tipi di contenuti. Lo strumento di Meta si chiama Hasher-Matcher-Actioner (HMA) e si basa sul precedente software di corrispondenza di immagini e video dell’azienda che ha rilasciato tre anni fa.
HMA può mantenere i siti web privi di contenuti pericolosi con l’aiuto dei suoi utenti che etichettano immagini e video che violano regole e leggi. Il sistema creerà un “hash” ovvero una impronta digitale univoca di ogni contenuto che viene salvato in un database. Le aziende possono utilizzare lo strumento per creare e gestire i propri database, ma possono anche utilizzare i database hash esistenti per assicurarsi una certa copertura.
Questo permette, anche a chi non ha le risorse necessarie, di sfruttare il sistema senza salvare le immagini o i video offensivi da soli. In questo modo si potrà sfruttare un database già esistente per scovare eventuali post che potenzialmente violano le regole.
Meta sta condividendo lo strumento poco prima di assumere la presidenza del consiglio di amministrazione del Global Internet Forum to Counter Terrorism (GIFCT) il mese prossimo. Si tratta del gruppo che ha formato con Twitter, YouTube e Microsoft per combattere l’estremismo online. GIFCT gestisce un database che le aziende possono utilizzare con l’HMA e Meta spiega che quando “Più aziende partecipano al database di condivisione hash, questo diventa migliore e più completo”.
Questo database, spiega ancora Meta, aiuta molte aziende che non hanno le capacità tecnologiche interne per trovare e moderare i contenuti illegittimi in volumi piuttosto consistenti. Questo, in estrema sintesi, è il motivo per cui HMA è uno strumento potenzialmente prezioso.
Ricordiamo che all’inizio di dicembre Apple ha annunciato l’abbandono del progetto per rilevare materiale pedopornografico in iCloud in seguito ai numerosi problemi e reclami emersi.