OpenAI ha creato uno suo strumento per identificare testi generati con ChatGPT (quello che in gergo si chiama “trappola antiplagio”), un tool che l’azienda potrebbe mettere a disposizione senza difficoltà anche subito, ma i dirigenti sono a quanto pare divisi sulla possibilità di offrire questo tool per timori che una soluzione del genere potrebbe diminuire l’attrattiva di ChatGPT, in particolare con alcune fasce di utenza.
A rivelarlo è il Wall Street Journal spiegando che lo strumento in questione è in grado di identificare parole e frasi alle quali, con ogni probabilità ne seguiranno altre, in altre parole identificando un pattern (uno schema) rilevabile.
La possibilità di offrire uno strumento che rivela l’uso di una AI in materiale scritto potrebbe essere interessante ad esempio per gli insegnanti, per avere a disposizione qualcosa che scoraggi gli studenti a usare le AI per i compiti scritti. Secondo quanto riporta il WSJ, il meccanismo di watermarking (filigranatura digitale che modifica in maniera impercettibile la composizione delle frasi) non influenza la qualità dei testi che è possibile creare con il chatbot.
Da test condotti internamente sarebbe emersa un’efficacia del 99,9% nel rilevamento; resta da capire quale sia la percentuale in questione dopo che l’utente sottopone blocchi di testo a modifiche.
Sul perché l’azienda non rilasci il tool antiplagio che è pronto da almeno un anno, un portavoce di OpenAI ha dichiarato: “Il metodo per applicare watermark al testo che stiamo sviluppando è tecnicamente promettente, ma comporta rischi importanti che stiamo valutando, mentre cerchiamo alternative. Riteniamo che l’approccio adottato sia necessario, considerando le complessità coinvolte e il probabile impatto su un ampio ecosistema che va oltre OpenAI”.
Tutte le notizie che parlano di Intelligenza Artificiale sono disponibili a partire da questa pagina di macitynet.