Il Congresso degli Stati Uniti ha inviato lettere a dirigenti di aziende del mondo IT, Apple inclusa, evidenziando preoccupazioni in merito alla sempre maggiore diffusione non consensuale di immagini intime “deepfake“, immagini o video sessualmente espliciti nei quali i volti degli attori di film per adulti sono sostituiti tramite l’intelligenza artificiale con quelli di persone comuni, solitamente donne.
Nella lettera, sottoscritta da gruppi bipartisan di membri del Congresso, si evidenzia la diffusione di immagini intime non consensuali create con app distribuite su piattaforme come quelle di Apple e Google. Anche a Satya Nadella, CEO di Microsoft, è stato chiesto di indicare, come sta affrontando il problema, tenendo conto di Microsoft Designer, tool per la creazione di immagini con l’AI.
“All’inizio di quest’anno, Apple ha rimosso tre app usate per creare deepfake dal suo app store dopo che una indagine indipendente di 404 Media ha indicato i link alle app e i relativi annunci pubblicitari”, si legge nella lettera inviata a Tim Cook. “Sebbene positiva la scelta di rimuovere le app, è preoccupante che Apple non sia stata in grado di rivelare le app da sola. L’App Store obbliga gli sviluppatori a sottoporsi a un processo di selezione, ma la persistenza di queste app evidenzia l’esistenza di scappatoie nelle linee-guida. Mentre Apple lavora per sistemare queste scappatoie, vorremmo capire quali misure si stanno adottando e quali altre linee-guida addizionali possono essere necessarie per contenere la diffusione della pornografia deepfake”.
Simile la lettera inviata a Sundar Pichai, CEO di Google, evidenziando in questo caso anche il ruolo di Big G nel consentire la diffusione di pubblicità che invitano a scaricare le app “incriminate”.
“All’inizio di quest’anno, Google ha annunciato che avrebbe messo al bando pubblicità di siti web e servizi che permettono di produrre pornografia deepfake”, si legge nella lettera. “Come sa, l’emergere dei deepfake ha portato a un aumento di annunci verso gli utenti che vogliono produrre contenuti sessualmente espliciti. Benché le policy aggiornate di Google istruiscono gli sviluppatori di app AI a crearle cautelandosi da contenuti offensivi, […] recenti report hanno evidenziato che Google continua a promuovere risultati che mostrano app che sfruttano l’AI generativa per creare immagini con nudità non consensuali. Questo sviluppo solleva preoccupazioni sulla complicità di Google e il suo ruolo nella proliferazione di immagini deepfake. Vorremo ulteriormente chiarire l’esito di tali aggiornamenti, e comprendere quali linee-guida aggiuntive potrebbe essere necessarie per contenere la diffusione della pornografia deepfake, inclusi sforzi per rimuovere le piattaforme deepfake dai risultati delle ricerche di Google”.
Gli stessi membri del Congresso hanno inviato lettere ai CEO di Facebook, TikTok e Snapchat, evidenziando preoccupazioni per la diffusione di contenuti non consensuali sulle rispettive piattaforme.
A questo indirizzo dettagli su come riconoscere video deepfake, sfruttati non solo per pornografia ma anche per frodi finanziarie e truffe alle aziende.