賴可 發(fā)自 亞龍灣
量子位 報道 | 公眾號 QbitAI
沒錯,美國人臉識別系統(tǒng)最愛的是:白人中年男性
其他非裔、亞裔族群,識別率就沒那么高了。
這周四,美國NIST發(fā)布的研究報告給出了這樣的結(jié)果。
甚至在一些算法中,亞裔和非裔美國人被誤認的可能性比白人高100倍。
對于一向“政治正確”先行的美國,可想而知該結(jié)果帶來的“爆炸性”。
還有一個有趣的結(jié)果,像來自商湯、曠世這樣的亞洲算法,白種人和黃種人之間的誤判差距就小一些。
美國官方機構(gòu)權(quán)威檢測
這項研究由美國國家技術(shù)標(biāo)準(zhǔn)研究院NIST進行,檢查了人臉識別軟件在不同種族、性別、年齡上是否有差異。
研究檢查了由99家公司,學(xué)術(shù)機構(gòu)和其他開發(fā)人員自愿提交的189種算法。包括了大多數(shù)業(yè)界領(lǐng)先的系統(tǒng),來自主要的技術(shù)公司和承包商,包括Idemia,英特爾,微軟,松下,商湯和 Vigilant Solutions。
亞馬遜沒有提交檢查,CNN Business從NIST處得知,亞馬遜認為自己的軟件和該檢測不相容。亞馬遜的人臉識別軟件Rekognition出售給了俄勒岡州警方,用于嫌疑人追蹤。
量子位查閱這次提交檢查的公司名單,發(fā)現(xiàn)沒有谷歌
曾經(jīng)有黑人兄弟發(fā)現(xiàn)自己被谷歌的算法識別成”大猩猩“,谷歌公司的整改方法是:把識別類別中的”大猩猩“去掉了。(可戳量子位之前的文章:為了不把黑人兄弟認作大猩猩,谷歌的算法連真的大猩猩都不認識了)
檢測結(jié)果
1、在一對一匹配中,相較于白人,亞裔和非裔的人臉識別錯誤率要高10到100倍。(不同算法不同)
2、在所有種族中,美洲原著民的假陽率最高;一對多匹配,非洲裔美國女性的假陽性率更高。
3、年齡和性別因素。老年人和兒童更容易被識別錯,女性比男性容易被識別錯。中年白人準(zhǔn)確率最高。
4、不同國家開發(fā)的算法表現(xiàn)不同。美國開發(fā)的算法中,亞裔、非裔和土著的錯誤率很高。亞洲開發(fā)的算法中,白人和亞洲人的錯誤率差距較小。
“偏見”還有長尾影響
根據(jù)人臉識別的使用場景和功能,檢測分為一對一匹配和一對多匹配:
一對一匹配一般用于手機人臉解鎖或護照檢查。
一對多匹配用于確定某張照片是否在一個數(shù)據(jù)庫中有匹配項,經(jīng)常用于警察搜索嫌疑人。
一對一匹配出現(xiàn)錯誤可能會導(dǎo)致人臉無法解鎖,給生活帶來麻煩。但是一對多匹配的錯誤可能后果更嚴重,就會讓警察把無辜的人列入嫌疑名單。
這份報告的主要作者Patrick Grother表示,
我們研究的大多數(shù)面部識別算法中都存在人口統(tǒng)計學(xué)差異的證據(jù)。盡管我們不探原因,但這些數(shù)據(jù)對于決策者、開發(fā)人員和最終用戶在考慮這些算法的局限性和適當(dāng)使用方式時將是有價值的。
這不是第一份研究顯示出人臉識別帶有偏見
例如,去年MIT實驗室的一項研究也得出了類似的結(jié)果。
凡遇到膚色較暗的人種以及女性,識別的錯誤率就增加。
亞馬遜等公司之前批評了這些研究,稱這些研究使用了過時的算法,或者是系統(tǒng)使用不當(dāng)。
在美國一些地區(qū),對于人臉識別已有禁令
舊金山、奧克蘭以及馬薩諸塞州的兩個城市薩默維爾和布魯克萊恩,在今年已通過了禁止公職人員使用面部識別的條款。加利福尼亞州禁止在警用攝像頭中使用人臉識別軟件。
這次研究結(jié)果,再次引起美國國會議員對于人臉識別技術(shù)的監(jiān)管討論。他們要求川普政府重新考慮擴大人臉識別使用的計劃。
美國俄勒岡州的參議員Ron Wyden在一份聲明中說,
任何部署新技術(shù)的公司或政府有責(zé)任仔細檢查其產(chǎn)品是否存在偏見和歧視,至少要在軟件中徹底檢查是否有Bug。
網(wǎng)友討論:講倫理也要講技術(shù)現(xiàn)狀
有網(wǎng)友嘗試對”白人的正確率高“這一結(jié)果進行解釋??赡苁前兹说拿娌刻卣鞑町悾ū热缪劬皖^發(fā)的顏色)本身就比較大?
還有少數(shù)族裔的網(wǎng)友現(xiàn)身說法,講了自己被“人臉識別”喚醒“童年創(chuàng)傷”的故事:
在機場的CLEAR系統(tǒng)經(jīng)常識別不出他,他不得不進入TSA Pre-Check。TSA檢查需要涉及背景和指紋檢查。這讓他重新經(jīng)歷童年時期朋友和老師認不出他的痛苦。
即使現(xiàn)在,當(dāng)咖啡師看著他想不起來他的訂單時,他依舊會體驗到激烈的情緒。
現(xiàn)在他知道這不是他的問題,而是他身上原住民血統(tǒng)的原因。
我們生活在一個充滿偏見的世界,而新技術(shù)的到來,會放大現(xiàn)實世界的偏見嗎?
參考資料
https://www.nist.gov/news-events/news/2019/12/nist-study-evaluates-effects-race-age-sex-face-recognition-software
https://www.washingtonpost.com/technology/2019/12/19/federal-study-confirms-racial-bias-many-facial-recognition-systems-casts-doubt-their-expanding-use/
https://edition.cnn.com/2019/12/19/tech/facial-recognition-study-racial-bias/index.html
http://gendershades.org/overview.html
—?完?—