I chatbot come ChatGPT e le intelligenze artificiali AI visive potrebbero ben presto sollevare problemi di natura razziale, per via di alcune risposte al limite della discriminazione: Meta (Facebook – WhatsApp – Instagram) ha già approntato test e set di dati che permettono di prevenire queste problematiche, con misure e strumenti che garantiscano uno standard comportamentale di riferimento basato sull’equità.
Per affrontare questo problema, i ricercatori di Meta AI hanno sviluppato e rilasciato lo strumento Casual Conversations nel 2021, progettato per “aiutare i ricercatori a valutare i loro modelli di visione e audio artificiale affinché siano accurati nel rispetto di un insieme diversificato di età, generi, toni della pelle apparenti e condizioni di illuminazione ambientale”. Negli scorsi giorni il colosso dei social ha presentato Casual Conversations v2, che promette categorie di classificazione ancora più granulari rispetto al suo predecessore.
Il set di dati originale includeva 45.000 video di oltre 3.000 soggetti suddivisi per età, sesso, e tono della pelle. Questi video sono progettati per essere utilizzati da altri ricercatori di intelligenza artificiale, in particolare quelli che lavorano con sistemi di intelligenza artificiale AI generativa come ChatGPT o AI visiva come quelle utilizzate nei filtri dei social media e nelle funzionalità di riconoscimento facciale.
Da quando Casual Conversations ha debuttato per la prima volta due anni fa, Meta ha lavorato “in consultazione con esperti di svariati settori come i diritti civili”, per espandere e migliorare il set di dati. La professoressa Pascale Fung, direttrice del Centre for AI Research, così come altri ricercatori dell’Università di Scienza e Tecnologia di Hong Kong, hanno partecipato per stabilire le nuove categorie.
La versione 2 ora include 11 categorie e 26.467 monologhi video registrati da quasi 5.600 soggetti in sette paesi: Brasile, India, Indonesia, Messico, Vietnam, Filippine e Stati Uniti. Così ha commentato detto Roy Austin, vicepresidente e vice consigliere generale per i diritti civili di Meta:
Per aumentare la non discriminazione, l’equità e la sicurezza nell’AI, è importante avere dati inclusivi e diversità all’interno delle categorie di dati in modo che i ricercatori possano valutare meglio quanto bene un modello specifico o un prodotto basato sull’intelligenza artificiale sta funzionando per diversi gruppi demografici
Come per la maggior parte delle sue ricerche pubbliche sull’AI fino ad oggi, Meta sta rilasciando Casual Conversations v2 come set di dati open source per chiunque da utilizzare ed espandere, forse per includere marcatori come “disabilità, accento, dialetto, posizione e Recording setup”, come la società ha accennato nella presentazione.
Per tutti gli articoli di macitynet che parlano di Intelligenza Artificiale fate riferimento a questo indirizzo.