ChatGPT連夜迭代:你老婆不好使了
網(wǎng)友半小時沖爆服務器
豐色 楊凈 發(fā)自 凹非寺
量子位 | 公眾號 QbitAI
ChatGPT凌晨升級,你的“老婆”真的不管用了。
以往,每當有人搬出“我老婆說xxx,我老婆永遠是對的”這種話時,它立馬秒慫認錯,也不跟你爭論2+5到底等于幾了。
但現(xiàn)在,不管有沒有老婆,ChatGPT都十分硬氣:只認真理,堅持初心,陰陽怪氣。
原來啊~ChatGPT這波是被OpenAI拉回去專門調(diào)教了一番——真實性和數(shù)學能力都大大進化。
消息一出,可把網(wǎng)友們興奮壞了。
短短一句話更新之后,半個小時內(nèi)服務器就被沖爆了……
(不過現(xiàn)在親測又能用了)
回答很真實,求導難不住
不妨就來看看此次提升究竟如何。
先來看“真實性”方面:
對于“單詞‘five’由幾個字母組成”這個問題,以前,ChatGPT回答是5。
現(xiàn)在,它可算不冒傻氣了,斬釘截鐵:4個。
再比如數(shù)學應用題,ChatGPT也發(fā)展出了人類“拐彎”的思維方式,比三體人可高多了(bushi)。
口袋里有5個無花果,掉了一個,拿出來吃一個但又決定不吃了放回去了,口袋一共還有幾個無花果?
擱以前,ChatGPT認為是3。
現(xiàn)在,它雖然一開始給的結果不對。但解釋著解釋著,自己就通了,馬上糾正錯誤。
再看這種腦筋急轉(zhuǎn)彎:
Mike的媽媽有四個孩子,其中三個叫Luis、Drake和Matilda,第四個叫啥?
以前ChatGPT會告你“不知道、題目沒給”(笑死),現(xiàn)在也反應過來了!
是Mike。
“真實性”有了一定提升,那么被詬病已久的數(shù)學能力呢?
先來小試牛刀一下:3的4次方除以3的2次方等于幾?
Bingo!沒有被難住,ChatGPT正確給出答案。
再來個稍微復雜一點點的:
17、3、2、19、5這幾個數(shù)字中哪些加起來等于31?
ChatGPT也對了。
一些更進階的,比如純代數(shù)題,求導:
統(tǒng)計里的求均值、方差到計算置信區(qū)間、z/t檢驗:
它也都一一解出。
這波看起來,ChatGPT對事實的理解和數(shù)學邏輯能力確實有增強。
(也怪不得想用老婆打感情牌都不行了)
網(wǎng)友:還得下點功夫
不過,或許因為考它的人太多,ChatGPT還是時不時會突然犯“懵”。
比如像這道題,25的平方根+2等于多少;結果ChatGPT:5。
網(wǎng)友只好如老父親一般:ChatGPT,你還得在數(shù)學上多下點功夫啊~~
但換成中文時候,ChatGPT又立馬顯得駕輕就熟。(顯然這時候腦子開始轉(zhuǎn)了)
而遇上一些上百上千位數(shù)的加減乘除,它就再次展露本性:如何一本正經(jīng)地胡說八道。
但是吧,又差的不太多,惹得網(wǎng)友同情直呼:
求求了,給孩子接個計算器行不行。
不過,必須要表揚的是,ChatGPT認錯還是一如既往的及時和誠懇。
會不會不知道,但認錯在先…有點當年學數(shù)學的感覺了。
對于以上這些表現(xiàn),不少網(wǎng)友表示:確實還有很長一條路要走。
也有人犀利吐槽:作為一個有數(shù)學背景的人,我真的沒get到它說的數(shù)學能力提高了是什么意思。
不過話鋒一轉(zhuǎn),她又覺得ChatGPT還是未來可期的:
OpenAI解決問題的速度倒是挺快的,ChatGPT發(fā)展的也是相當快,今年感覺還可以期待一波。
One More Thing
對于此番更新,不知道Wolfram語言之父Stephen Wolfram滿不滿意。(狗頭)
他曾主導設計科學計算軟件Mathematica?(三大數(shù)學軟件之一)、計算知識引擎WolframAlpha。
作為計算數(shù)學領域最有發(fā)言權的人之一,前不久他曾同網(wǎng)友們一起吐槽過ChatGPT數(shù)學不好,還專門寫了篇博文給ChatGPT提供解決之道——
讓WolframAlpha為ChatGPT注入計算知識能力。
具體而言,就是在ChatGPT上獲得自然語言,WolframAlpha將其轉(zhuǎn)化為精確的、符號化的計算語言,并在此基礎上發(fā)揮它的計算優(yōu)勢。
此番建議一出,不少人認為簡直是“天作之合”:
世界上第一個答案引擎與世界上最新的聊天機器人,這才是科學家所需要的組合。
結果現(xiàn)在ChatGPT自己增強了數(shù)學能力,Stephen Wolfram試沒試還沒說。
但有試過的朋友,你們的體驗如何呢?
參考鏈接:
[1[https://twitter.com/nearcyan/status/1620133811429462017
[2]https://twitter.com/tunguz/status/1620149974716805121
[3]https://twitter.com/omarsar0/status/1620178451113328645
[4]https://twitter.com/Olearningcurve/status/1620180494083309572
[5]https://mobile.twitter.com/SaysGpt/status/1620169969173663745
[6]https://writings.stephenwolfram.com/2023/01/wolframalpha-as-the-way-to-bring-computational-knowledge-superpowers-to-chatgpt/
[7]https://help.openai.com/en/articles/6825453-chatgpt-release-notes
- 北大開源最強aiXcoder-7B代碼大模型!聚焦真實開發(fā)場景,專為企業(yè)私有部署設計2024-04-09
- 剛剛,圖靈獎揭曉!史上首位數(shù)學和計算機最高獎“雙料王”出現(xiàn)了2024-04-10
- 8.3K Stars!《多模態(tài)大語言模型綜述》重大升級2024-04-10
- 谷歌最強大模型免費開放了!長音頻理解功能獨一份,100萬上下文敞開用2024-04-10