L’intelligenza artificiale, oltre che essere una grande risorsa, è fonte anche di molteplici preoccupazioni; le ultime in ordine cronologico provengono dalle dichiarazioni dirette del creatore di ChatGPT: secondo OpenAI reti segrete russe, cinesi, iraniane e israeliane avrebbero tentato di manipolare l’opinione pubblica utilizzando contenuti generati dall’AI.
OpenAI ha dichiarato di aver bloccato cinque diverse operazioni che utilizzavano i modelli di Intelligenza Artificiale per attività ingannevoli su internet. Queste operazioni, che OpenAI ha interrotto tra il 2023 e il 2024, provenivano da Russia, Cina, Iran e Israele ed erano intente a manipolare l’opinione pubblica e influenzare i risultati politici, il tutto in maniera occulta ovviamente.
Il rapporto di OpenAI arriva in un momento di preoccupazione per l’impatto dell’AI generativa sulle elezioni in programma quest’anno in tutto il mondo, inclusi gli Stati Uniti. Nei suoi risultati, OpenAI ha rivelato come reti di persone impegnate in operazioni di influenza occulte abbiano utilizzato l’Intelligenza Artificiale per creare testi e immagini in volumi piuttosto consistenti e maggiori rispetto al passato, per generare commenti fake sui post dei vari media.
OpenAI ha dichiarato che l’operazione russa chiamata “Doppelganger” ha utilizzato i modelli dell’azienda per generare titoli, convertire articoli di notizie in post su Facebook e creare commenti in più lingue per minare il sostegno all’Ucraina. Un altro gruppo russo ha utilizzato i modelli di OpenAI per eseguire debug di codice per un bot di Telegram che pubblicava brevi commenti a sfondo politico in inglese e russo, prendendo di mira Ucraina, Moldavia, Stati Uniti e Stati baltici.
La rete cinese
Allo stesso tempo, la rete cinese “Spamouflage,” nota per i suoi sforzi di influenza su Facebook e Instagram, ha utilizzato i modelli di OpenAI per ricercare attività sui social media e generare contenuti testuali in più lingue su varie piattaforme.
Al suo fianco, l'”International Union of Virtual Media” iraniana ha anche utilizzato l’AI per generare contenuti in più lingue. Negli scorsi giorni Meta ha pubblicato il suo ultimo rapporto sul comportamento di una società di marketing israeliana, che ha utilizzato account falsi su Facebook per condurre una campagna di influenza sulla piattaforma, prendendo di mira utenti negli Stati Uniti e in Canada.
Tutti gli articoli di macitynet che parlano di Intelligenza Artificiale sono disponibili nella sezione dedicata.