Mentre c’è ancora chi sostiene che presto molte delle professioni attualmente esistenti scompariranno per via dell’intelligenza artificiale AI, continuano a rincorrersi fallimenti dei chatbot. Questa volta è toccato a ChatGPT, il modello AI preferito al momento dall’utenza, mostrare il peggio di sé: un avvocato lo ha utilizzato per far causa a una compagnia aerea, ma adesso dovrà rispondere personalmente per alcune assurdità che l’AI ha generato.
Secondo quanto riportato dal New York Times, gli avvocati che hanno citato in giudizio la compagnia aerea colombiana Avianca, avrebbero presentato un documento contenente precedenti giudiziari totalmente inventati da ChatGPT.
Per loro sfortuna, l’avvocato di controparte ha evidenziato alla corte che i precedenti citati fossero totalmente inventati o comunque errati. Sulla base di queste opposizioni, il giudice distrettuale degli Stati Uniti, Kevin Castel, ha potuto effettivamente constatare che sei dei casi presentati contenevano citazioni e riferimenti falsi.
Ed allora, l’iniziale giudizio contro la compagnia aerea si è trasformata in una udienza in cui valutare eventuali sanzioni per gli avvocati del querelante.
Ammissioni e scuse dell’ avvocato che ha usato ChatGPT
L’avvocato Steven A. Schwartz ha ammesso in un’istanza giurata di aver utilizzato il chatbot di OpenAI per le sue ricerche. Peraltro, ha specificato che per verificare i precedenti citati, si è servito dello stesso chatbot, per chiedere se i casi citati fossero veri.
Uno screenshot mostra addirittura le richieste fatte dall’avvocato per assicurarsi se uno dei casi citati fosse reale, con ChatGPT che ha risposto affermativamente. A questo punto, l’avvocato avrebbe anche chiesto alla AI quale fosse la fonte.
Alla domanda ChatGPT ha iniziato a scusarsi per la confusione precedente e ha insistito sul fatto che il caso fosse reale, affermando che poteva essere trovato su Westlaw e LexisNexis. Soddisfatto di tali risposte, l’avvocato ha poi chiesto se gli altri casi fossero falsi. Anche in questo caso, ChatGPT ha confermato l’esistenza di tutti i precedenti citati.
La triste realtà si è poi palesata in tribunale, quando gli avvocati della compagnia aerea hanno obiettato davanti alla corte che il documento presentato fosse pieno di menzogne. Ad esempio, in un caso inesistente chiamato “Varghese v. China Southern Airlines Co., Ltd.”, il chatbot sembrava fare riferimento ad un altro caso reale, Zicherman v. Korean Air Lines Co., Ltd., ma sbagliando la data e altri dettagli.
Schwartz, l’avvocato interessato dalla vicenda, afferma di non essere stato “consapevole della possibilità che i contenuti potessero essere falsi”, rammaricandosi “profondamente di aver utilizzato l’intelligenza artificiale generativa per integrare la ricerca legale svolta” e assicurando di non voler ripetere l’errore.
Le stranezze dei Chatbot
La vicenda sottolinea ancora una volta l’assurdità di utilizzare i chatbot prendendo per oro colato le risposte fornite. Al debutto di Microsoft Bing si sono verificati episodi con insulti e manipolazione emotiva da parte dell’AI spinta al limite dalle richieste di alcuni utenti, problemi successivamente risolti. Il debutto di Bard, il chatbot di Google, non è stato da meno, inventandosi un fatto sul telescopio spaziale James Webb nella sua prima apparizione pubblica.
Tutte le notizie che parlano di Intelligenza Artificiale sono disponibili a partire da questa pagina di macitynet