Algoritmi per riconoscimento volti hanno pregiudizi razzisti
Algoritmi per riconoscimento volti hanno pregiudizi razzisti
23 dicembre 2019, ore 22:00
Studio Usa, più errori su persone di colore
La maggior parte degli algoritmi per il riconoscimento facciale usati negli Usa è razzista, e dà più falsi positivi per le persone di colore. Lo afferma uno studio del National Institute of Standards and Technology, un ente federale, che ha testato quasi 200 sistemi, tra cui quasi tutti quelli più usati dall'industria. Gli algoritmi sono stati analizzati per due diversi compiti. In uno, detto "one to one" in cui dovevano trovare la foto di una persona in un database a partire da un'altra immagine della stessa persona. Nell'altro, "one to many", il sistema doveva individuare l'eventuale presenza della persona in immagini generiche di un database, un sistema utilizzato dalla polizia per identificare un sospetto in un'indagine. Nel primo caso la maggior parte degli algoritmi aveva un tasso molto maggiore di falsi positivi per i volti asiatici o afroamericani, fino a 100 volte maggiore in alcune circostanze. "Nel compito one to many"- scrivono gli autori - i sistemi hanno mostrato il peggior tasso di falsi positivi per le donne afroamericane, il che mette questa popolazione a maggior rischio di essere falsamente accusate di un crimine". Diversi altri studi hanno trovato pregiudizi di genere e razza negli algoritmi, dovuti a errori nella programmazione. Un problema che secondo gli autori dovrebbe essere affrontato anche dalle istituzioni, data la crescente popolarità dei sistemi di riconoscimento facciale.