Probabilmente si ignora il tipo di lavoro che serve per scrivere un articolo accurato e digeribile per il pubblico: così qualcuno commenta Genesis, l’AI generativa di Google che sarebbe in grado di generare articoli di giornale semplicemente dandogli in pasto i dati necessari per costruire la storia.
Google l’ha mostrata al New York Times e ad altre grandi testate giornalistiche come il Washington Post e il Wall Street Journal, presumibilmente per raccogliere i feedback dai professionisti del settore in modo da affinarne le capacità prima del lancio. Lo strumento infatti è ancora in fase di sperimentazione: l’idea di base è quella di dare ai giornalisti una specie di assistente virtuale che gli automatizzi alcune attività in modo che ci si possa concentrare su altro, ma allo stato attuale non sembra convincere i grandi nomi.
Tra inquietudine e rischio disinformazione
Alcune delle persone che hanno assistito alla dimostrazione dicono semplicemente che tutto questo è «inquietante», per altri come accennato in apertura il problema sarebbe a monte e riguarderebbe quella superficialità con cui ci si approccerebbe al mondo del giornalismo, di fatto ignorando tutto il lavoro che in realtà c’è dietro la costruzione di un articolo. Perché se al momento questa AI non è (ancora) in grado di aiutare il giornalista a verificare le fonti, pare si arroghi il diritto di sapere come impostare un articolo di giornale indipendentemente dall’evento o dal tema da raccontare.
La realtà dei fatti sarebbe infatti più sottile: ogni notizia è diversa e le sfumature che con un pezzo si possono assumere nel riportarla sono talmente ampie e variegate che secondo chi ha visto all’opera Genesis, semplicemente, oggi sono irraggiungibili dalla macchina; insomma, nonostante i progressi fatti negli ultimi anni da questi algoritmi, l’uomo parrebbe avere ancora la meglio.
Per Jeff Jarvis, giornalista e professore alla City University di New York, il discorso invece è molto più semplice: strumenti come questo – dice – andrebbero usati soltanto se vi è la certezza che possano fornire «informazioni fattuali e in maniera affidabile».
I dubbi riguardano soprattutto la possibilità che questo tipo di AI faciliti la diffusione di disinformazione (che poi è quel che è successo con Google Bard, lanciato in fretta e in furia per non lasciare campo libero per troppo tempo all’OpenAI di Microsoft) ed è qualcosa che andrebbe evitato, soprattutto con una guerra in corso e una pandemia alle spalle: sappiamo bene quanto una informazione sbagliata possa dare il via ad una serie di eventi a catena potenzialmente dannosi per l’intera società, perciò il lancio di uno strumento simile andrà ponderato a fondo.