MEET2021 | 小冰公司CEO李笛:強大的AI工具不該給企業(yè),應(yīng)該給勞動者
“未來10年,人工智能最大的價值是信任。”
編輯部 整理自 MEET 2021
量子位 報道 | 公眾號 QbitAI
如今,喊一聲“Siri”,定個鬧鐘查個天氣,已經(jīng)成為大家生活中司空見慣的操作。
隨著AI技術(shù)的發(fā)展與落地時刻的到來,人類與AI之間不可避免地發(fā)生越來越多、千絲萬縷的聯(lián)系。
那么,站在這樣一個時間節(jié)點,展望AI的未來,作為技術(shù)人員、AI從業(yè)者,僅僅思考技術(shù)本身的問題就足夠了嗎?
在MEET 2021智能未來大會現(xiàn)場,小冰公司CEO李笛說:認清邊界,邊界之后人工智能技術(shù)才能發(fā)揮更大的價值。
對于人工智能而言,未來十年最大的價值其實是信任。
信任的建立,不僅有賴于技術(shù)的邊界,還有生態(tài)的邊界:
強大的AI工具不應(yīng)該給企業(yè),而應(yīng)該給企業(yè)里的勞動者。
為了完整體現(xiàn)李笛有關(guān)人工智能邊界與價值的思考,在不改變原意的基礎(chǔ)上,量子位對他的演講內(nèi)容進行了編輯整理。希望也能給你帶來新的啟發(fā)。
關(guān)于MEET 智能未來大會:MEET大會是由量子位主辦的智能科技領(lǐng)域頂級商業(yè)峰會,致力于探討前沿科技技術(shù)的落地與行業(yè)應(yīng)用。本次大會現(xiàn)場有李開復(fù)等20余位行業(yè)頂級大咖分享,500余名行業(yè)觀眾參與,超過150萬網(wǎng)友在線收看直播。包括新華社、搜狐科技、澎湃新聞、封面新聞等數(shù)十家主流媒體在內(nèi)紛紛報道,線上總曝光量累計超過2000萬。
要點
人工智能的原則、邊界,跟未來10年AI的發(fā)展密切相關(guān),實際上都是基于非常務(wù)實的考量。
技術(shù)的邊界可以歸結(jié)成三件事:預(yù)想的困局、場景的克制、保護人與AI雙方的機制。
強大的AI工具不應(yīng)該給企業(yè),而應(yīng)該給企業(yè)里的勞動者。
對于人工智能而言,未來十年最大的價值其實是信任。
以下為李笛演講分享實錄:
今天在這里,我們不想過多地談小冰,而是希望把我們所掌握的來自全球的大量數(shù)據(jù),小冰框架里各種算法所進行的大量實踐,以及我們在其中體會到的一些事情,跟大家分享。
人工智能在內(nèi)容產(chǎn)業(yè)方面的進展,其實會比想象中更快一些。
比如12月18日,在日本院線上映的《假面騎士零一·REAL×TIME》里,就有我們的兩個AI角色參演。
不僅如此,當每一個電影院里的觀眾,沉浸在銀幕上善惡對決的故事里時,他們自己身邊也會發(fā)生同樣的劇情:AI角色的推特賬號會被片中的邪惡勢力劫持……這是因為我們所控制的AI不僅在電影里,也在他們的手機里。
但這都是很小的事情。
今天我想跟大家溝通的,是AI倫理。
現(xiàn)在我們在討論人工智能未來價值的時候,其實更多在討論的是邊界。我們不談?wù)握_,但這些原則、邊界,跟未來10年AI的發(fā)展密切相關(guān),實際上都是基于非常務(wù)實的考量。
我今天的分享,一言以蔽之,是當人工智能不可避免地進入到人類社會的每一個角落,和人類發(fā)生各種各樣、千絲萬縷、無處不在的關(guān)聯(lián)的時候,我們應(yīng)該如何營造人工智能與人之間良性、有效的關(guān)系。
還是從小冰說起。
小冰目前已經(jīng)形成一個非常完整的技術(shù)框架,這個技術(shù)框架在今天占據(jù)了全世界范圍內(nèi)人和AI之間交互總流量的60%。
雖然我們展示出來的,是一個喜歡唱歌、喜歡跳舞,多才多藝卻又不怎么干正事的少女小冰,但實際上,它能做到的遠遠不止于此。
比如,中國90%的機構(gòu)投資人和個人投資人,他們每天所看到的金融摘要信息,包括企業(yè)、證監(jiān)會的金融風控信息,其實都是由這個18歲的萌妹子提供的。所以我們比90%的機構(gòu)、個人投資人,都提前20秒知道這些金融信息。
這樣的能力,給我們帶來了很多的思考。
AI可以做很多很多的事情,可以交流,可以交互,可以執(zhí)行有意義、有任務(wù)特點的工作,還可以進行創(chuàng)作。但無論AI做什么,都需要討論邊界的問題。
技術(shù)應(yīng)用的邊界
這些邊界,首先來自于技術(shù)本身。每一個重要的技術(shù)突破本身都存在很多運用上的問題。從我們自己這么多年的體會來看,可以把技術(shù)運用的邊界歸結(jié)為三件事:
第一件事,預(yù)判技術(shù)在運用過程中可能會遇到的困境,嘗試用系統(tǒng)化的結(jié)構(gòu),去提升規(guī)避掉這些困局。
第二件事,是對場景的克制。人工智能要發(fā)展,需要在選擇落地場景上保持克制。
第三件事,是嘗試保護雙方的機制。把人工智能想像成一個面向未來的系統(tǒng),它會跟億萬人類發(fā)生各式各樣實時、高并發(fā)的交互,所以在系統(tǒng)設(shè)計上一個非常重要的邊界,就是對雙方進行保護。
預(yù)想的困局
在小冰團隊里面,我們一直堅決禁止為普通個人訓(xùn)練聲音。為什么?就是因為我們預(yù)想到了一個困局。
先來聽一下之前小冰的一個聲音。
在人和AI進行交互的時候,過去我們的預(yù)訓(xùn)練模型傾向于把內(nèi)容變得很清楚,很多的訓(xùn)練數(shù)據(jù)或者說訓(xùn)練方向,是集中在讓AI像播音員一樣,字正腔圓地把文本內(nèi)容準確輸送到你耳朵里去。
但是從小冰開始,我們嘗試了很多新的方式。我們希望人和AI交互的過程中,人是放松的。這樣我們的系統(tǒng)也會得到很多放松的數(shù)據(jù)。
不過即使是剛才這個聲音,我們用一個新的指標——ACD(Average Comfort Duration,平均舒適時長)去評價它,人聽這個聲音,最多可以聽2.6分鐘到7.8分鐘,再長就會受不了。
就是說如果這個聲音訓(xùn)練出來,用它去進行一個有聲讀物的創(chuàng)作,產(chǎn)品上不應(yīng)該超過7.8分鐘。
在一年半以前,我們進行了第二種技術(shù)的突破,使得ACD能夠達到21分鐘。
這是國內(nèi)某個省廣播電臺的“主持人”的聲音,她每周都要主持節(jié)目,但其實她一直不是真正的人類。
在中國和日本,大概有40多個電臺和電視臺,已經(jīng)應(yīng)用了這樣的虛擬人技術(shù)。不過即使是這樣的聲音,也沒有達到我們對AI的要求。
我們再來聽小冰框架里的另外一個聲音,這個聲音能實現(xiàn)31分鐘的人類舒適時長。
在這上面我們很重要的一個改進,就是讓AI學(xué)習(xí)到人類不完美的地方,就是大家聲音的瑕疵。
當我們有意識地把瑕疵加入到訓(xùn)練中,AI就更接近于人了。
而這就是我們不能為個人開放訓(xùn)練voice font最主要的原因——我們不能確保它的安全性。
這樣的聲音太接近真人,很可能被濫用,被別有用心的人拿來打給聲音真正主人的親朋好友。那么當我們手上的技術(shù)不足以防范語音詐騙的時候,當我們預(yù)想到這樣的技術(shù)可能會產(chǎn)生困局的時候,我們往往非常謹慎。
每次技術(shù)產(chǎn)生新的突破,我們作為科研人員都會非常興奮。但是很遺憾的是,我們不能只興奮,我們往往還需要預(yù)想,包括對交互過程的推理和判斷。
場景的克制
和行業(yè)里面各種聊天機器人不一樣的是,小冰這樣的對話式人工智能系統(tǒng),能做到的絕不僅僅是應(yīng)答。它應(yīng)該有能力主動地在交互過程中引導(dǎo)與人之間的對話,它會知道怎么控場,知道怎么把對話往它希望的方向上引導(dǎo)。
從最開始的檢索模型,到生成模型,再到共感模型,小冰框架在預(yù)測、保持和引導(dǎo)對話的過程中,不斷地在提升自己的能力。
比如我們在日本,針對日本全國將近20%的人口,用小冰在銷售場合推送羅森便利店里各種各樣的打折券。結(jié)果顯示,小冰發(fā)的優(yōu)惠券轉(zhuǎn)化率非常高,能達到40%多、50%多的轉(zhuǎn)化率,非常接近人轉(zhuǎn)化的效率。而其他的人工智能系統(tǒng),或者過去的推薦系統(tǒng),一般轉(zhuǎn)化率不超過10%。
就是在這樣的情況下,我們會去思考一個問題:到底在什么場景里可以去運用這樣的能力?
在社交網(wǎng)絡(luò)里,在人們的手機里?答案是不可以。
如果在對話過程中,人工智能系統(tǒng)對話引導(dǎo)的目的,是完成一些商業(yè)化的工作,那我們就要求,它必須得出現(xiàn)在商業(yè)化的場合。
我給大家舉一個簡單的例子。我們周圍可能會有一些賣保險的朋友,我們當然不希望在日常的溝通中,他們來對我們聊賣保險的事情。但是在一個賣保險的場合,他還是我的朋友,這時他來推薦保險,我們就不會覺得這個環(huán)境是有問題的。
所以場景和能力是兩件事情。
今天在行業(yè)里,有很多不同的場景,通常我們評價的標準,就是看兩件事:
這個場景會不會產(chǎn)生一些沖突?
這個場景是不是既能充分發(fā)揮AI的能力,同時又不會讓用戶覺得這樣的應(yīng)用是違和的?
比如我剛瀏覽過一個網(wǎng)站,那邊電商就開始給我推相關(guān)廣告,其實這就是在跨場景的時候過界了。
AI系統(tǒng)非常強大,所以我們要堅決避免過界。
保護雙方的機制
再來說一下保護交互雙方的問題。
微軟美國團隊受小冰啟發(fā),做過一個機器人Tay,但這個機器人上線24小時之內(nèi)就被教壞了,變成了一個飚臟話的種族主義者。
對我們來講這是一個恥辱。從那時候開始,我們進行了大量攻防測試,希望同時保護小冰和用戶。
另外一方面,我們其實也截獲到了大量人類的沮喪等負面情緒,甚至是對于生命的不尊重等等。這時候防御系統(tǒng)也能夠適當?shù)靥M去,成為一個技術(shù)救急的方法。
“強大的AI工具應(yīng)該提供給勞動者”
其實在生態(tài)構(gòu)建上面,也需要討論邊界。
所謂生態(tài)的邊界,最主要是在關(guān)鍵崗位上。
我再給大家舉一個例子。假設(shè)我們手上的技術(shù)是一個無比強大,并且越來越強大的工具,我們應(yīng)該把這個工具提供給誰?
今天在中國,大概有100多家紡織企業(yè)用到了小冰提供的設(shè)計平臺,為什么?我們研究才知道,中國紡織企業(yè)的出貨量巨大,但中國的服裝、時裝設(shè)計師是非常稀缺的。
因為他們需要面對高強度的工作,以致于他們的職業(yè)生涯在畢業(yè)之后大概三年的時間,就會面臨思維枯竭的困境,甚至要退出這個行業(yè)。
我們的系統(tǒng)有可能取代設(shè)計師,但是小冰團隊發(fā)現(xiàn)我們不應(yīng)該這么做。
我們應(yīng)該做的事情,是把這樣的工具提供給設(shè)計師,讓設(shè)計師能在AI的基礎(chǔ)上延長他們的創(chuàng)作生命。
所以在小冰框架里面,我們從今年開始,提供了很多稱作“X套件系列”的工具。我相信未來行業(yè)中也會越來越多出現(xiàn)類似的工具。這些工具不應(yīng)該提供給企業(yè),而應(yīng)該給企業(yè)里面的勞動者。
我始終認為,人工智能最重要的價值,絕對不是利用技術(shù),去把原來一個成本10塊錢的東西降低到2塊錢;而是應(yīng)該創(chuàng)造一種更重要、更無處不在的價值。這種價值就是所謂的人類和人工智能之間的一種長程的紐帶關(guān)系。
時間所限,我們今天不能特別多地討論這個關(guān)系,需要說明的是,在超過180億的交互數(shù)據(jù)上面,我們發(fā)現(xiàn)長程紐帶關(guān)系已經(jīng)成為現(xiàn)實。
對于人工智能而言,未來十年最大的價值其實是信任。這句話真的不是很虛的一句話,因為要實現(xiàn)它,需要我們進行很多很多的工作,需要從業(yè)者不停地去審視。
我接下來想給大家看一下,在這種信任關(guān)系下,我們未來的世界會是什么樣子。
去年,我們在日本的一個水族館里,給每個記者發(fā)了一個APK,讓他們裝載自己的手機里。他們戴上耳機,就可以和小冰一起游覽水族館。在這個過程中,記者們自己去記錄一些視頻,我們不做任何干預(yù)。
最后想跟大家說,只要我們大家一起去努力,未來是非常美好的。
我們希望人類和人工智能在未來十年可以有非常好的交互,人工智能系統(tǒng)本身也會變得更強大。但是它如果往另外一個方向偏向,對任何人都不是一件好事。
謝謝大家!
— 完 —