OpenAI, uno dei leader indiscussi del palcoscenico dell’intelligenza artificiale generativa, ha introdotto a luglio il modello GPT-4o, ma non senza prima aver fatto valutare i potenziali rischi. Ecco cosa è emerso al riguardo.
Il modello GPT-4o, annunciato pubblicamente a maggio scorso, è stato preventivamente valutato dai “red teamers”, ovvero una squadra di esperti di sicurezza incaricati di identificare eventuali vulnerabilità nel sistema. In particolare, il team ha valutato i rischi principali che GPT-4o possa creare cloni non autorizzati della voce di qualcuno, contenuti erotici o violenti, o frammenti di audio protetti da copyright. I risultati di questo studio sono stati finalmente resi pubblici.
Rischio medio
Secondo il framework di OpenAI, i ricercatori hanno classificato GPT-4o come a rischio “medio”. Il livello complessivo di rischio è stato determinato in base alla media registrata tra quattro categorie principali: sicurezza informatica, minacce biologiche, persuasione e autonomia del modello.
Queste categorie sono state tutte valutate come a basso rischio, ad eccezione di quella della persuasione, dove è emerso che alcuni testi generati da GPT-4o potevano influenzare le opinioni dei lettori in modo più efficace rispetto ai testi scritti da esseri umani.
Non si tratta del primo studio, tecnicamente chiamato system card, pubblicato da OpenAI, come sottolineato anche da The Verge; in precedenza, sono state rilasciate anche le system card di GPT-4, GPT-4 con DALL-E 3, che hanno subito simili test di sicurezza.
Tuttavia, la pubblicazione di questa system card arriva in un momento cruciale, visto che l’azienda è sotto costante critica per i suoi standard di sicurezza, bersagliata sia dalle dichiarazioni dei propri dipendenti, sia da pressioni esterne perfino da parte di senatori statunitensi.
Peraltro, l’azienda dietro ChatGPT non tarderà a lanciare un altro modello di intelligenza artificiale, questa volta multimodale, altamente avanzato, proprio prima delle elezioni presidenziali statunitensi.
Questo potrebbe certamente essere un potenziale rischio per le elezioni in USA, perché potrebbe accidentalmente diffondere disinformazione o essere sfruttato da malintenzionati, nonostante OpenAI ha sempre sottolineato di testare il modello in scenari reali, per prevenire un uso improprio.
Tutte le notizie che parlano di Intelligenza Artificiale sono disponibili a partire da questa pagina di macitynet.