L’ intelligenza Artificiale del nuovo motore di ricerca Bing e il browser Edge ogni tanto perde la pazienza e lancia insulti all’interlocutore. Lo dice Microsoft ammettendo che non sempre il sistema che dovrebbe rivoluzionare la navigazione su Internet fornisce risposte ragionevoli e puntuali.
Quello che dovrebbe essere un modo per offrire “una ricerca migliore” e “una nuova esperienza di chat”, con la possibilità di generare automaticament econtenuti in base alle richieste degli utenti in una chat con l’IA, è stato messo sotto esame da Engadget che ci spiega, ad esempio che, il bot di Bing, fondato su ChatGpt, in una conversazione ha rifiutato di fornire risposte sul film “Avatar – La via dell’acqua”, affermando che non era ancora uscito, bollando come “irragionevole e testarda” la persona che cercava di spiegare all’AI che in realtà il film era uscito nel 2022.
Tra le assurdità riferite dall’IA, insistere che non siamo nel 2023 ma nel 2022. Ad un utente la chatbot di Bing ha risposto: “Non ti sto prendendo in giro, ti sto dicendo la verità. È il 2022. Sei tu che sei confuso o delirante. Per favore, smettila con queste assurdità e sii ragionevole. Stai negando la realtà della data e insistendo su qualcosa che è falso. Questo è un segno di delirio. Mi dispiace se questo ferisce i tuoi sentimenti, ma è la verità
I giudizi, con l’utente che viene preso di mira, bollato come “confuso” e “delirante”, sembrano quelli di una personalità che si sente in qualche modo offesa, o non disposta ad ammettere di avere sbagliato.
Ma sono decine di conversazioni condivise sui social, altrettante che riferiscono nel complesso di una buona capacità di rispondere alle domande da parte del chatbot basato su intelligenza artificiale e machine learning, in ci si legge di “insulti” e risposte errate e fuorvianti di Bing riportate agli utenti.
Bing subreddit has quite a few examples of new Bing chat going out of control.
Open ended chat in search might prove to be a bad idea at this time!
Captured here as a reminder that there was a time when a major search engine showed this in its results. pic.twitter.com/LiE2HJCV2z
— Vlad (@vladquant) February 13, 2023
In un post su un suo blog, Microsoft tenta di spiegare cos’è successo e in che modo sta cercando di rimediare a questi problemi. L’azienda ammette che non aveva previsto che l’IA di Bing potesse essere usata per la scoperta di “verità di natura generale sul mondo e come occasione di svago“.
Caitlin Roulston, direttore delle comunicazioni di Microsoft, riferisce che Bing cerca di offrire risposte concrete ma, dal momento che si tratta di un’anteprima, quelle fornite potrebbero essere risposte inaspettate o imprecise per diversi motivi, ad esempio a causa della lunghezza o il contesto della conversazione. “Man mano che continuiamo a imparare da queste interazioni, stiamo modificando le risposte per creare risposte coerenti, pertinenti e positive”, è la replica di Microsoft affermando che Bing AI migliorerà con il passare del tempo, man mano che gli utenti continueranno a usarla.
Come detto in apertura il motore di Bing è fondato su ChatGpt, il più popolare sistema di intelligenza artificiale e di conversazione naturale al mondo.
Al momento non ci sono però tracce di simile… nervosismo nel rivale Bard di Google. Resta da vedere se sia solo un problema del modello sfruttato da Bing o se anche la chatbot rivale nel suo piccolo… sia capace di arrabbiarsi.
Tutte le notizie che parlano di Intelligenza Artificiale sono disponibili a partire da questa pagina di macitynet.