錯(cuò)把黑人視頻打上“靈長(zhǎng)類動(dòng)物”標(biāo)簽,F(xiàn)acebook的AI太離譜!官方已向公眾致歉
AI再惹種族歧視爭(zhēng)議
明敏 發(fā)自 凹非寺
量子位 報(bào)道 | 公眾號(hào) QbitAI
觀看一個(gè)以黑人為主角的視頻,結(jié)果平臺(tái)給出的相關(guān)推薦是:
是否繼續(xù)觀看有關(guān)靈長(zhǎng)類動(dòng)物的視頻?
這是最近一些Facebook用戶在觀看一則黑人視頻時(shí),遇到的真實(shí)情況。
視頻的內(nèi)容其實(shí)是幾個(gè)平民和警察發(fā)生爭(zhēng)執(zhí),和“猴子或靈長(zhǎng)類動(dòng)物”毫無(wú)關(guān)系。
這在網(wǎng)上引起了軒然大波。
對(duì)此Facebook緊急致歉,稱其是“不能容忍的錯(cuò)誤”。
目前,他們正在研究這一推薦功能以“防止這種情況再次發(fā)生”。
“我們的AI并不完美”
這件事情起源于《每日郵報(bào)》2020年6月27日發(fā)布的一個(gè)視頻。
視頻中有白人、黑人和警察,他們之間發(fā)生了一些爭(zhēng)執(zhí),視頻的主要人物是黑人。
最近,有Facebook用戶觀看這則視頻時(shí)發(fā)現(xiàn),平臺(tái)給出的推薦提示居然是:
是否繼續(xù)觀看有關(guān)靈長(zhǎng)類動(dòng)物的視頻?
這讓人感到有些錯(cuò)愕。
按照生物學(xué)定義劃分,人類的確屬于靈長(zhǎng)目。
但結(jié)合一些社會(huì)情況,不少種族主義者將黑人貶低為“猴子”、“猩猩”,意圖刻意將他們與“人”區(qū)分開(kāi)。
這樣的社會(huì)背景,讓人不免猜測(cè)Facebook給這段視頻打上“靈長(zhǎng)類動(dòng)物”標(biāo)簽到底是怎么一回事。
于是有人把這個(gè)視頻的情況告訴了前Facebook內(nèi)容設(shè)計(jì)經(jīng)理Darci Groves ,看到這個(gè)情況后,Groves感到非常的震驚。
隨即,她把這一情況發(fā)到了一個(gè)面向Facebook員工的產(chǎn)品反饋論壇中。
之后,這事引起了Facebook官方的注意。
Facebook Watch產(chǎn)品經(jīng)理表示,這種情況是不能被容忍的,公司已經(jīng)在調(diào)查問(wèn)題的根本原因。
Facebook發(fā)言人Dani Lever則在一份聲明中表示,:
雖然我們?cè)诓粩嗵嵘鼳I的水平,但是我們知道它并不完美,還有更多可以優(yōu)化的地方。
我們向所有看到這則冒犯性推薦的人道歉。
AI種族歧視,不是第一次了
Facebook這次的“錯(cuò)誤標(biāo)簽”,再一次把AI推上了輿論的風(fēng)口浪尖。
這幾年,不少科技巨頭的AI都出現(xiàn)了存在種族偏見(jiàn)的負(fù)面新聞。
2015年,谷歌相冊(cè)就曾把黑人照片打上黑猩猩的標(biāo)簽引起不少爭(zhēng)議。
當(dāng)時(shí),谷歌對(duì)此“深表歉意”。
不過(guò)在2018年,《連線》雜志發(fā)現(xiàn),谷歌并沒(méi)有真的改正錯(cuò)誤,只是……為圖像分類算法去掉了“大猩猩gorilla”這個(gè)類別。
去年被CVPR 2020收錄的PLUSE方法,也被人發(fā)現(xiàn)存在明顯的種族偏見(jiàn)。
它是一個(gè)可以把打碼的人臉修復(fù)如初的AI,結(jié)果還原的人臉,全部是白人臉。
比如奧巴馬這張復(fù)原圖,可以說(shuō)和他本人是毫無(wú)關(guān)系。
對(duì)亞洲臉龐的復(fù)原效果也非常不好。
類似的例子在AI算法中,真的不少見(jiàn)。
由此,AI的倫理問(wèn)題也一直備受人們關(guān)注。
在把人和大猩猩弄混這事上,人類不會(huì)犯這種低級(jí)錯(cuò)誤。為什么AI會(huì)呢?
有人認(rèn)為這是一個(gè)復(fù)雜的計(jì)算機(jī)視覺(jué)問(wèn)題。
找出圖像之間相似是很容易的,但是找出為什么相似卻不相關(guān),這是個(gè)很難的問(wèn)題。
也有人就指出這是因?yàn)锳I做的工作更多是統(tǒng)計(jì)推理,它本身不會(huì)思考。
所以,就要關(guān)注訓(xùn)練集。
有人就表示,他曾與一家大公司合作時(shí)發(fā)現(xiàn),不少AI訓(xùn)練集中都存在偏見(jiàn)。
但是對(duì)于這一現(xiàn)象,不少團(tuán)隊(duì)都沒(méi)有想消除歧視的想法。
此外,也存在訓(xùn)練集中包含黑人面孔太少的可能,這導(dǎo)致算法在識(shí)別黑人面孔時(shí)會(huì)表現(xiàn)不好。
當(dāng)然也不排除程序員本身存在種族偏見(jiàn),所以在打標(biāo)簽時(shí)就已經(jīng)存在偏見(jiàn)。