Secondo quanto riportato da Bloomberg, per anni YouTube ha ignorato i suggerimenti e le richieste dei suoi dipendenti di verifica ed eliminazione video proibiti o sconsigliati, preferendo avere più coinvolgimento degli utenti, piuttosto che ridurre la diffusione di immagini o opinioni sconvenienti.
Secondo più di 20 ex dipendenti di YouTube, gli (ex) impiegati si prodigavano nell’avanzare proposte per frenare la diffusione di video che contenevano contenuti inquietanti, estremistici o cospirazionisti, ma i dirigenti della società sarebbero stati più interessati a stimolare il coinvolgimento degli utenti anziché a prestare attenzione a quegli avvertimenti.
Una proposte suggeriva una modalità per mantenere online i contenuti molto vicini alla violazione delle politiche della piattaforma, rimuovendoli però dalla scheda dei video consigliati. YouTube ha però respinto tale suggerimento nel 2016, preferendo puntare sui video consigliati indipendentemente da quanto fossero controversi. Secondo i dipendenti, l’obiettivo interno alla piattaforma era raggiungere 1 miliardo di ore di visualizzazioni al giorno.
La notizia giunge a poche settimane dallo scoppio dello scandalo che ha riguardato proprio l’algoritmo che gestisce i video suggeriti, colpevole di favorire la diffusione di contenuti con protagonisti bambini e minori, video diventati preda di utenti con tendenze evidentemente cyber-pedofile, nonché la diffusione del video dell’attentato in Nuova Zelanda.
I dipendenti al di fuori del team di moderazione sono stati anche scoraggiati nel ricercare video che potessero violare le policy, aspetto che potrebbe anche avere ripercussioni non da poco: la società avrebbe infatti una responsabilità maggiore se ci fosse la prova che i membri dello staff sapevano e riconoscevano l’esistenza di quei video.
Negli ultimi anni almeno cinque impiegati senior hanno lasciato YouTube per la sua riluttanza ad affrontare il problema. Come descritto da un altro ex membro dello staff, il CEO di YouTube, Susan Wojcicki, “non si sarebbe mai sporcata le mani”, affermando che il suo punto di vista era semplicemente quello di qualcuno interessato solo a “gestire la società” invece di affrontare l’assalto di disinformazione e contenuti pericolosi.
Un portavoce di YouTube ha detto che la società ha iniziato ad agire a fine 2016 e ha iniziato a demonetizzare i canali che promuovono contenuti dannosi nel 2017. Tuttavia, fino alla fine di quell’anno, meno di 20 membri dello staff erano impiegati nel team “trust and safety”.