容貌辨識技術雖然有不少應用場景,但是在普及的同時亦引起愈來愈多的爭議,特別是用來執法的時候存在偏見問題。最近美國政府委託公營機構進行研究,確認了這個技術確實存在偏見問題。
美國政府委託國家標準暨技術研究院對容貌辨識技術進行研究,主要針對執法機構在刑事調查時會用到的「單對單」配對應用,結果發現在辨識非裔和亞裔容貌時的誤判率,是辨識白人容貌的 10 到 100 倍。其中非裔女性的誤判率最高,如果用作執法用途的話,可能會導致這些族群的人備受困擾。
NIST 的測試測試了來自 99 個開發者的 189 個算法,得出的結果自然引起關注。報告中有包含中國商湯科技的算法,被點名批評其誤判率在所有配對之中都相當高,例如在判斷索馬里人的時候誤判超過 10%,不過商湯科技堅持這是個別事件,問題已經被修復,測試無法反映產品表現。
算法正義聯盟(Algorithmic Justice League)的創辦人 Joy Buolamwini 表示,今次報告是對堅持人工智能不再存在偏見的人的全面反擊,認為需要正視問題。
來源:Reuters