Non ci si può fidare di tutto quello che si trova su una pagina di Wikipedia. I motivi possono essere tanti, a partire dal fatto che anche le fonti primarie potrebbero indurre in errore. Per questo, allora, potrebbe venire in soccorso l’intelligenza artificiale. I ricercatori hanno sviluppato un’AI focalizzata sul miglioramento dell’affidabilità dei riferimenti di Wikipedia, addestrando gli algoritmi per individuare le citazioni sul sito che risultano essere dubbie.
Il programma, chiamato SIDE, fa due cose: verifica se una fonte primaria è accurata e suggerisce nuove fonti. Tuttavia, l’intelligenza artificiale lavora con l’assunzione che una dichiarazione di Wikipedia sia vera. Ciò significa che, sebbene possa verificare la validità di una fonte, non può effettivamente verificare le affermazioni fatte in un articolo.
In un recente studio, gli utenti hanno preferito le citazioni suggerite dall’AI rispetto all’articolo originale nel 70 percento delle volte. I ricercatori hanno, altresì, scoperto che in quasi il 50 percento dei casi, SIDE ha presentato una fonte che era già utilizzata da Wikipedia come riferimento principale, mentre il 21 percento delle volte, SIDE è stato un passo avanti quando ha fornito una raccomandazione che era già stata ritenuta appropriata da editori umani.
Limiti del sistema
Sebbene l’AI sembri dimostrare di poter aiutare efficacemente un editore a verificare le affermazioni di Wikipedia, i ricercatori ammettono che programmi alternativi potrebbero superare l’attuale struttura sia in termini di qualità che di velocità.
SIDE è limitato nelle sue capacità: il programma considera solo i riferimenti corrispondenti alle pagine web. In realtà, Wikipedia cita libri, articoli scientifici e informazioni presentate attraverso altri media oltre al testo, come immagini e video.
Tuttavia, al di là dei suoi limiti tecnici, l’intera premessa di Wikipedia è che qualsiasi scrittore ovunque possa assegnare un riferimento a un argomento. I ricercatori suggeriscono che l’uso di Wikipedia stesso potrebbe limitare lo studio. Fanno capire che le persone che inseriscono citazioni nel sito potrebbero permeare pregiudizi a seconda della natura degli argomenti in questione.
Non occorre, poi, dimenticare che qualsiasi programma, specialmente un’intelligenza artificiale dipendente dall’addestramento, potrebbe essere soggetto all’esposizione di preconcetti del suo programmatore. I dati utilizzati per addestrare e valutare i modelli di SIDE potrebbero essere limitati in tal senso.
Prospettive e benefici futuri
Tuttavia, i benefici dell’utilizzo dell’AI per semplificare la verifica dei fatti, o almeno utilizzarla come strumento di supporto, potrebbero avere applicazioni che avranno effetti duraturi altrove.
Wikipedia e le società di social media devono affrontare quotidianamente bot e utenti non troppo corretti che invadono le rispettive piattaforme con informazioni false.
Si tratta di problematiche particolarmente attuali, dopo la diffusione di disinformazione relativa alla guerra tra Israele e Hamas; peraltro, l’imminente futuro sarà contrassegnato dalle elezioni presidenziali negli Stati Uniti, terreno fertile di bot e troll.
La necessità di mitigare la disinformazione online potrebbe essere mitigata, dunque, da da strumenti di intelligenza artificiale, come SIDE, progettati per questo scopo specifico.