ChatGPT老板警告:AI可能滅絕人類(lèi)
圖靈獎(jiǎng)得主Bengio和Hinton也簽了
蕭簫 發(fā)自 凹非寺
量子位 | 公眾號(hào) QbitAI
圖靈獎(jiǎng)得主Bengio和Hinton,同時(shí)警告AI可能滅絕人類(lèi)!
就在昨夜,一封簽署名單多達(dá)350人的公開(kāi)信迅速傳播開(kāi)去,信中核心只有一句話:
“降低AI滅絕人類(lèi)的風(fēng)險(xiǎn)”,應(yīng)該像流行病和核戰(zhàn)爭(zhēng)等其它社會(huì)規(guī)模的風(fēng)險(xiǎn)一樣,成為全球的優(yōu)先事項(xiàng)。

簽署這封公開(kāi)信的,既包括三大AI巨頭的CEO,即ChatGPT老板、OpenAI的Sam Altman,DeepMind的Demis Hassabis和Anthropic的Dario Amodei;

也包括不少?lài)?guó)內(nèi)外高校的教授,除了Yoshua Bengio和Geoffrey Hinton以外,清華AIR院長(zhǎng)張亞勤和斯坦福教授、圖靈獎(jiǎng)得主Martin Hellman等人也名列其中。
這段時(shí)間來(lái),關(guān)于AI風(fēng)險(xiǎn)的各種大小討論也是接連不斷,OpenAI CEO Sam Altman前段時(shí)間還倡議稱(chēng),人們應(yīng)當(dāng)像對(duì)待核設(shè)施一樣監(jiān)管AI。
所以,究竟是誰(shuí)發(fā)起的這封公開(kāi)信倡議,又是否有AI大牛反對(duì)這件事?
為何簽署這封信?
發(fā)布這封公開(kāi)信的機(jī)構(gòu)名叫Center for AI Safety(CAIS),是一家關(guān)于AI安全的非營(yíng)利組織。

在這封公開(kāi)信的開(kāi)頭,CAIS反復(fù)強(qiáng)調(diào):
包括AI專(zhuān)家、記者、政策制定者和公眾在內(nèi),越來(lái)越多的人開(kāi)始討論AI帶來(lái)的一系列重要和緊迫的風(fēng)險(xiǎn)。
即便如此,要想表達(dá)對(duì)先進(jìn)AI的嚴(yán)重風(fēng)險(xiǎn),可能還是有一定難度。這封公開(kāi)信旨在克服這一障礙,并展開(kāi)對(duì)相關(guān)議題的討論,讓更多專(zhuān)家和公眾人物認(rèn)識(shí)到這一點(diǎn)。

事實(shí)上,已經(jīng)有不少簽署了這封信的AI大牛,最近發(fā)了關(guān)于AI風(fēng)險(xiǎn)的博客文章、或是在訪談中談到了自己的觀點(diǎn)。
例如前段時(shí)間,Yoshua Bengio就寫(xiě)了一封長(zhǎng)信,警告稱(chēng)“人類(lèi)大腦是生物機(jī)器,一定會(huì)有超級(jí)智能AI超越它”。

除此之外,包括Stability AI的創(chuàng)始人Emad Mostaque、以及劍橋大學(xué)助理教授David Krueger等人,也都在最近的訪談中提到了關(guān)于AI帶來(lái)的潛在危害。
例如,Emad Mostaque認(rèn)為,10年后包括Stability AI、OpenAI和DeepMind在內(nèi),這些AI公司的規(guī)模甚至?xí)^(guò)谷歌和Facebook。
也正是因此,AI風(fēng)險(xiǎn)是一個(gè)必須要考慮的事情:
我們可能正處于全面變革的風(fēng)口浪尖,這些變革對(duì)于任何一家公司或是國(guó)家來(lái)說(shuō)都太過(guò)龐大,以至于難以管理。
沒(méi)簽的AI大牛怎么說(shuō)?
當(dāng)然,這波鬧得沸沸揚(yáng)揚(yáng)的“請(qǐng)求AI監(jiān)管”浪潮下,也有不少反對(duì)的聲音。
目前為止,包括另一位圖靈獎(jiǎng)得主Yann LeCun、前特斯拉AI總監(jiān)Andrej Karpathy還有吳恩達(dá)等AI大牛在內(nèi),都還沒(méi)簽署這封聯(lián)名信。
吳恩達(dá)發(fā)推回應(yīng)稱(chēng):
當(dāng)我想到大部分人類(lèi)生存面臨的風(fēng)險(xiǎn)時(shí):流行病、氣候變化導(dǎo)致大規(guī)模人口減少、(撞擊地球的)小行星……
AI將是我們尋找解決方案的關(guān)鍵部分。所以,如果你想讓人類(lèi)在接下來(lái)的1000年里生存和繁榮,那就讓AI發(fā)展得更快,而不是更慢。

LeCun轉(zhuǎn)發(fā)表示同意:
“超人級(jí)”AI之所以不在風(fēng)險(xiǎn)列表榜首,很大程度上是因?yàn)樗€不存在。至少我們?cè)谠O(shè)計(jì)出達(dá)到狗智商(更不用說(shuō)人類(lèi)了)的AI之前,討論它的安全性還為時(shí)過(guò)早。

對(duì)此,紐約大學(xué)教授Gary Marcus補(bǔ)充道:
不要把框架縮小到只關(guān)注人類(lèi)滅絕的風(fēng)險(xiǎn)。AI其實(shí)還存在許多其他的嚴(yán)重風(fēng)險(xiǎn),包括可能幫助開(kāi)發(fā)生物武器等。

不過(guò),Gary Marcus同樣沒(méi)有簽署這份350人公開(kāi)信。
顯然包括不少AI大牛在內(nèi),反對(duì)者主要有兩種意見(jiàn)。
一種意見(jiàn)認(rèn)為,AI技術(shù)確實(shí)存在風(fēng)險(xiǎn),但這封公開(kāi)信涉及到的內(nèi)容太泛泛。
如果有更精確的聲明如“減輕AI技術(shù)的潛在風(fēng)險(xiǎn)應(yīng)該是科技行業(yè)、政府和該領(lǐng)域?qū)W術(shù)研究人員的首要任務(wù)”,那么這封信還是可以簽署的。

這封公開(kāi)信中的內(nèi)容根本就是夸大其詞了,而且AI在氣候變化等領(lǐng)域甚至可以起到降低風(fēng)險(xiǎn)的作用。

另一類(lèi)意見(jiàn)則認(rèn)為,這封信只不過(guò)是當(dāng)前掌握最領(lǐng)先AI技術(shù)的人,試圖控制AI接下來(lái)的走向而已。
以O(shè)penAI的CEO Sam Altman為例:
Sam Altman要是真的擔(dān)心,大可以現(xiàn)在直接關(guān)掉ChatGPT服務(wù)器。

所以,你認(rèn)為按照現(xiàn)在的進(jìn)度來(lái)看,AI有可能滅絕人類(lèi)嗎?
參考鏈接:
[1]https://www.safe.ai/statement-on-ai-risk
[2]https://www.nytimes.com/2023/05/30/technology/ai-threat-warning.html?smtyp=cur&smid=tw-nytimes
[3]https://twitter.com/AndrewYNg/status/1663584330751561735
[4]https://www.reddit.com/r/MachineLearning/comments/13vls63/n_hinton_bengio_and_other_ai_experts_sign/