Secondo un rapporto di Reuters, Amazon ha recentemente abbandonato un progetto interno che mirava all’utilizzo dell’intelligenza artificiale per analizzare i curriculum inviati per le domande di lavoro, a causa di pregiudizi nei confronti delle candidature femminili.
Poiché i sistemi di intelligenza artificiale imparano a prendere decisioni osservando i dati storici, spesso portano avanti pregiudizi già esistenti. In questo caso il pregiudizio era l’ambiente di lavoro del mondo tecnologico dominato da figure maschili. Il programma di Amazon di fatto penalizzava le candidate che frequentavano le università femminili, così come tutti i curriculum che contenevano la parola “donne” (come per esempio “club degli scacchi per donne”).
Secondo quanto riferito, il team responsabile del progetto intendeva accelerare le procedure di assunzione dando al software il compito, ad esempio, di scegliere automaticamente i migliori 5 curriculum fra 100 candidature. L’azienda si è poi resa conto che il software non produceva risultati neutrali rispetto al genere, ed è stato ottimizzato per rimuovere questo pregiudizio. Le persone coinvolte non potevano però essere sicure che altri pregiudizi non fossero presenti nel programma, che di conseguenza è stato abbandonato.
Amazon ha dichiarato che il programma è stato utilizzato solo in alcuni test e non è mai stato utilizzato in modo indipendente o in veste ufficiale dai reclutatori dell’azienda.
I pregiudizi sul genere e sulla razza possono facilmente insinuarsi nei programmi di intelligenza artificiale, dagli algoritmi di riconoscimento facciale a quelli utilizzati dai tribunali e dagli ospedali. Nella maggior parte dei casi, questi programmi stanno semplicemente applicando pregiudizi esistenti.
Ad esempio, nel caso del programma di Amazon, un reclutatore umano potrebbe essere ugualmente prevenuto nei confronti delle candidate femminili su base subconscia. Ma, trasmettendo questi pregiudizi al programma di AI, vengono resi meno visibili e meno riconoscibili perché si tende ad avere fiducia delle decisioni prese dalle macchine e perché i programmi di intelligenza artificiale non possono spiegare il loro modo di pensare.