18+

網路臉部辨識 也爆性別、種族歧視

美國麻省理工學院研究人員布蘭維妮發現,即使是知名科技業者開發的臉部辨識軟體也具有「偏見」,辨識深色皮膚人種時錯誤率較高。 美聯社
美國麻省理工學院研究人員布蘭維妮發現,即使是知名科技業者開發的臉部辨識軟體也具有「偏見」,辨識深色皮膚人種時錯誤率較高。 美聯社

麻省理工學院(MIT)研究人員喬伊.布蘭維妮(Joy Buolamwini)發現,即使是知名科技業者開發的臉部辨識軟體,辨識深色皮膚人種時的錯誤率較高。亞馬遜公開批評她的研究方法,但一群人工智慧(AI)領域的專家挺她,呼籲亞馬遜停止出售臉部辨識軟體給警方。

對於警方、政府機構、商場和住宅迅速採用臉部辨識技術,可能導致種族歧視和性別歧視等隱憂,布蘭維妮並非唯一示警者。許多其他研究人員已經指出,自大量資料找尋規律的AI系統也會學得有偏見。

由布蘭維妮領導的研究一年前發表,指出IBM、微軟和中國業者Face++建立的臉部辨識系統,按性別給人分類。深膚色女性是最容易出錯的族群,錯誤率高達34.7%,相較下,淺膚色男性的出錯率不及1%。該研究呼籲注意「緊急關注」此一偏見問題。

這是因為這些偏見有時攸關生死:一項新近研究發現,可讓自駕汽車「看路」的電腦影像系統,較難辨認有深色皮膚的行人。

布蘭維妮的研究促使多數業者改善他們的系統--例如IBM今年發布擁有100萬張影像的新資料庫以提升分辨人臉的多樣性--她和多倫多大學研究人員合力進行的追蹤調查發現,IBM、微軟、Face++都有重大進展。

但根據1月下旬公布的研究結果,亞馬遜常認錯深膚色女性,被砲轟還停留在競爭對手一年前的水準。

亞馬遜駁斥布蘭維妮的說法,指其將臉部分析和臉部辨識混為一談,不當將衡量前者的方法用在評量後者。

本日熱門 本周最熱 本月最熱