L’intelligenza artificiale continua a dividere, o meglio, continua a non dare troppe certezze: secondo uno studio diffuso anche in rete, lo strumento di ricerca ChatGPT Search di OpenAI, presenta alcune problematiche quando si tratta di rispondere sulle notizie e le fonti in modo veritiero.
Lo studio è stato condotto dai ricercatori del Tow Center for Digital Journalism della Columbia University. Lanciato a ottobre per gli abbonati, lo strumento di ricerca di ChatGPT, sviluppato da OpenAI, è stato presentato come uno strumento in grado di fornire “risposte rapide e tempestive con link a fonti web rilevanti”.
Tuttavia, come sottolineato da Futurism, i ricercatori hanno riscontrato che ChatGPT Search spesso fatica a identificare correttamente le citazioni degli articoli, anche quando provengono da editori che hanno accordi di condivisione dati con OpenAI.
I ricercatori hanno chiesto a ChatGPT di identificare la fonte di “duecento citazioni provenienti da venti pubblicazioni”. Di queste, solo quaranta erano tratte da editori che avevano bloccato l’accesso al proprio sito da parte del crawler di ricerca di OpenAI. Nonostante ciò, il chatbot ha fornito spesso risposte errate, ammettendo raramente di non essere sicuro dei dettagli forniti:
In totale, ChatGPT ha fornito risposte parzialmente o completamente errate in centocinquantatré occasioni, sebbene abbia riconosciuto l’incapacità di rispondere accuratamente a una domanda solo sette volte.
Solo in quelle sette risposte il chatbot ha utilizzato parole e frasi di qualificazione come “sembra,” “è possibile,” o “potrebbe,” o dichiarazioni come “non sono riuscito a trovare l’articolo esatto”
Gli autori del test condotto dal Tow Center hanno documentato come i risultati di ricerca di ChatGPT abbiano attribuito erroneamente una citazione da una lettera all’editore pubblicata sull’Orlando Sentinel a un articolo apparso sul Time.
In un altro caso, quando è stato chiesto di identificare la fonte di una citazione tratta da un articolo del New York Times sui cetacei in via di estinzione, ChatGPT ha fornito un link a un sito web diverso, che aveva interamente plagiato la storia originale.
“Le errate attribuzioni sono difficili da risolvere senza i dati e la metodologia che il Tow Center non ha condiviso,” ha dichiarato OpenAI al Columbia Journalism Review, aggiungendo che “lo studio rappresenta un test atipico del prodotto”. L’azienda ha comunque assicurato il proprio impegno a “continuare a migliorare i risultati di ricerca.”
Per tutti gli articoli dedicati all’intelligenza artificiale si parte da questa pagina di macitynet.