錯把黑人視頻打上“靈長類動物”標(biāo)簽,F(xiàn)acebook的AI太離譜!官方已向公眾致歉
AI再惹種族歧視爭議
明敏 發(fā)自 凹非寺
量子位 報(bào)道 | 公眾號 QbitAI
觀看一個以黑人為主角的視頻,結(jié)果平臺給出的相關(guān)推薦是:
是否繼續(xù)觀看有關(guān)靈長類動物的視頻?
這是最近一些Facebook用戶在觀看一則黑人視頻時,遇到的真實(shí)情況。
視頻的內(nèi)容其實(shí)是幾個平民和警察發(fā)生爭執(zhí),和“猴子或靈長類動物”毫無關(guān)系。
這在網(wǎng)上引起了軒然大波。
對此Facebook緊急致歉,稱其是“不能容忍的錯誤”。
目前,他們正在研究這一推薦功能以“防止這種情況再次發(fā)生”。
“我們的AI并不完美”
這件事情起源于《每日郵報(bào)》2020年6月27日發(fā)布的一個視頻。
視頻中有白人、黑人和警察,他們之間發(fā)生了一些爭執(zhí),視頻的主要人物是黑人。
最近,有Facebook用戶觀看這則視頻時發(fā)現(xiàn),平臺給出的推薦提示居然是:
是否繼續(xù)觀看有關(guān)靈長類動物的視頻?
這讓人感到有些錯愕。
按照生物學(xué)定義劃分,人類的確屬于靈長目。
但結(jié)合一些社會情況,不少種族主義者將黑人貶低為“猴子”、“猩猩”,意圖刻意將他們與“人”區(qū)分開。
這樣的社會背景,讓人不免猜測Facebook給這段視頻打上“靈長類動物”標(biāo)簽到底是怎么一回事。
于是有人把這個視頻的情況告訴了前Facebook內(nèi)容設(shè)計(jì)經(jīng)理Darci Groves ,看到這個情況后,Groves感到非常的震驚。
隨即,她把這一情況發(fā)到了一個面向Facebook員工的產(chǎn)品反饋論壇中。
之后,這事引起了Facebook官方的注意。
Facebook Watch產(chǎn)品經(jīng)理表示,這種情況是不能被容忍的,公司已經(jīng)在調(diào)查問題的根本原因。
Facebook發(fā)言人Dani Lever則在一份聲明中表示,:
雖然我們在不斷提升AI的水平,但是我們知道它并不完美,還有更多可以優(yōu)化的地方。
我們向所有看到這則冒犯性推薦的人道歉。
AI種族歧視,不是第一次了
Facebook這次的“錯誤標(biāo)簽”,再一次把AI推上了輿論的風(fēng)口浪尖。
這幾年,不少科技巨頭的AI都出現(xiàn)了存在種族偏見的負(fù)面新聞。
2015年,谷歌相冊就曾把黑人照片打上黑猩猩的標(biāo)簽引起不少爭議。
當(dāng)時,谷歌對此“深表歉意”。
不過在2018年,《連線》雜志發(fā)現(xiàn),谷歌并沒有真的改正錯誤,只是……為圖像分類算法去掉了“大猩猩gorilla”這個類別。
去年被CVPR 2020收錄的PLUSE方法,也被人發(fā)現(xiàn)存在明顯的種族偏見。
它是一個可以把打碼的人臉修復(fù)如初的AI,結(jié)果還原的人臉,全部是白人臉。
比如奧巴馬這張復(fù)原圖,可以說和他本人是毫無關(guān)系。
對亞洲臉龐的復(fù)原效果也非常不好。
類似的例子在AI算法中,真的不少見。
由此,AI的倫理問題也一直備受人們關(guān)注。
在把人和大猩猩弄混這事上,人類不會犯這種低級錯誤。為什么AI會呢?
有人認(rèn)為這是一個復(fù)雜的計(jì)算機(jī)視覺問題。
找出圖像之間相似是很容易的,但是找出為什么相似卻不相關(guān),這是個很難的問題。
也有人就指出這是因?yàn)锳I做的工作更多是統(tǒng)計(jì)推理,它本身不會思考。
所以,就要關(guān)注訓(xùn)練集。
有人就表示,他曾與一家大公司合作時發(fā)現(xiàn),不少AI訓(xùn)練集中都存在偏見。
但是對于這一現(xiàn)象,不少團(tuán)隊(duì)都沒有想消除歧視的想法。
此外,也存在訓(xùn)練集中包含黑人面孔太少的可能,這導(dǎo)致算法在識別黑人面孔時會表現(xiàn)不好。
當(dāng)然也不排除程序員本身存在種族偏見,所以在打標(biāo)簽時就已經(jīng)存在偏見。
- 4o-mini華人領(lǐng)隊(duì)也離職了,這次不怪小扎2025-08-19
- 宇樹機(jī)器人“撞人逃逸”火到國外,王興興回應(yīng):下次不遙控了2025-08-16
- 突破Claude-4編程上限!自進(jìn)化Agent框架拿下新SOTA,已開源2025-08-19
- 讓OpenAI只領(lǐng)先5天,百川發(fā)布推理新模型,掀翻醫(yī)療垂域開源天花板2025-08-11