Come vi abbiamo raccontato nei giorni scorsi Google sta lavorando ad una Intelligenza Artificiale che dovrebbe essere in grado di aiutare i giornalisti a raccogliere informazioni, scrivere una prima bozza di un articolo, suggerire titoli, svolgere attività di supporto alla “cucina” redazionale (es. la revisione dei pezzi scritti da altri) e anche anche cosa scrivere quando viene condivisa la notizia sui social. Ma come dovrebbe funzionare?
Denominata internamente Genesis, l’IA in questione è indicata come un modello che tiene conto della “responsabilità” del giornalista verso i cittadini, in grado di aiutare e assistere i redattori; una tecnologia che solleva non pochi dubbi sul versant e del rispetto della verità e della maggiore accuratezza possibile.
Il New York Times riferisce che il progetto è stato presentato a testate americane come Wall Street Journal, Washington Post e altri media. Alcune persone che hanno avuto modo di vedere all’opera l’IA hanno definito la presentazione “inquietante”; altri ancora ritengono che Google non sembra rendersi conto di tutto il lavoro necessario per ottenere articoli che siano davvero utili e di qualità.
Si tratta, semplificando, di un assistente che può essere utile per la scrittura o automatizzare particolari compiti. Per ora si sa molto poco. Potrebbe essere d’aiuto come strumento di verifica per individiare incongruenze, fatti certi, date errate, ecc. Dubbi non di poco conto nascono se si pensa di offrire questo strumento in sostituzione di un accurato lavoro giornalistico
Il sito The Verge ha interpellato Jenn Crider, portavoce di Google e questo ha riferito di partnership con testate, in particolare quelle più piccole, che starebbero valutando le potenzialità dell’IA, ottenere assistenza nella titolazione e con differenti stili di scrittura. “Il nostro obiettivo è offrire ai giornalisti la possibilità di scegliere l’uso di tecnologie emergenti per migliorare il loro lavoro e la loro produttività, alla stregua di quanto facciamo già con gli strumenti di assistenza disponibili in Gmail e Google Docs”. E ancora: “Molto semplicemente, questi strumenti non sono pensati e non possono sostituire il ruolo fondamentale che i giornalisti ricoprono nel reporting, nella creazione e nel fact-checking (l lavoro di accertamento di fatti e avvenimenti, ndr) nei loro articoli”.
L’idea sembra essere quella di un assistente in grado di generare articoli a catena, con tutto ciò che ne consegue. Abbiamo più volte visto come tutte le IA spesso prendono fischi per fiaschi, cadono in errore, indicando anche fatti completamente “inventati” di sana pianta, presentati come se fossero reali.
Diversi media hanno già provato a usare le IA per generare automaticamente articoli con risultati a volte disastrosi o nella migliore delle ipotesi inesatti; uno degli ultimi esempi: l’errore nell’indicare cronologicamente l’uscita dei film della saga di Star Wars, ma non sono mancati anche problemi seri, come ad esempio in un articolo pubblicato da Men’s Journal contenente molte approssimazioni ed errori grossolani, un elemento che farebbe sorridere se non fosse che si tratta di argomenti legati alla salute….
harlie Stadtlander, portavoce del New York Times, afferma: «Riconosciamo il potere, il potenziale e soprattutto i rischi dell’intelligenza artificiale generativa sia per i lettori sia per il giornalismo». riferendo di voler restare «in prima linea per identificare modi creativi per usare l’IA generativa per avanzare la nostra missione giornalistica». Resta di capire se e come testate piccole e grandi usernano questo strumento: un conto è sbagliare l’ordine cronologico di una serie di film, un altro sono dissertazioni su aspetti come quelli che riguardano salute e finanza…
Tutte le notizie che parlano di Intelligenza Artificiale sono disponibili a partire da questa pagina di macitynet