ChatGPT付費(fèi)功能免費(fèi)用!Mistral把Canvas、Artifact全復(fù)制了
多模態(tài)模型大號版一同上線
克雷西 發(fā)自 凹非寺
量子位 | 公眾號 QbitAI
歐洲的OpenAI,把ChatGPT功能都復(fù)制了。
Mistral AI大模型平臺Le Chat新增Canvas、聯(lián)網(wǎng)搜索、上傳PDF等ChatGPT同款功能,而且全都免!費(fèi)!
三大主流大模型產(chǎn)品的功能,現(xiàn)在可以一站式訪問。
而且還官宣和知名繪圖模型Flux達(dá)成合作,在Le Chat平臺提供在線生圖功能,同樣是不收一分錢。
經(jīng)量子位簡單實(shí)測發(fā)現(xiàn),搜索、文檔總結(jié)和繪圖這些新功能都支持中文。
Mistral的CEO?Arthur Mensch表示,這次的新版Le Chat是一個里程碑,標(biāo)志著該平臺已經(jīng)成為“更成熟的動物”。
ChatGPT同款功能免費(fèi)用
在Mistral的官方平臺Le Chat(看上去是chat,但實(shí)際上是法語的“貓”)上,免費(fèi)上新了一系列ChatGPT同款功能。
從Mistral官方發(fā)布的表格來看,除了o1和語音對話,其他功能基本都安排了。
其中也包括OpenAI最新上線的高級界面Canvas,在ChatGPT中該功能目前還是會員專屬。
在Le Chat的Canvas當(dāng)中,可以單獨(dú)展示生成的文稿,而不必再從對話中手動提取。
代碼也可以如法炮制,并支持實(shí)時預(yù)覽,還能選中局部代碼要求做出修改。
再來是聯(lián)網(wǎng)搜索,和ChatGPT一樣,Le Chat可以根據(jù)問題進(jìn)行在線搜索總結(jié),并附上來源信息,而且速度非???。
另外,現(xiàn)在的Le Chat已經(jīng)能夠處理復(fù)雜的PDF文檔和圖像,并進(jìn)行分析和總結(jié),包括其中的表格、圖表、文本、公式、方程等內(nèi)容。
在下面的示例中,Le Chat對愛因斯坦等人1935年撰寫的著名量子糾纏論文進(jìn)行了信息提取、概括和語義理解。
除了分析圖片,最新的Le Chat也支持了文生圖,不過Mistral暫未自研此類模型,而是選擇了與Flux合作,接入其模型。
還可以創(chuàng)建并在對話中@智能體,智能執(zhí)行一些任務(wù),但是目前創(chuàng)建頁面只有法語……
不過,目前Mistral已經(jīng)發(fā)布的模型尚未拓展至語音模態(tài),因此ChatGPT中的高級語音對話功能,Le Chat是沒有的,另外也沒有桌面客戶端。
所以,雖然Mistral此舉被視為在功能上對ChatGPT的追趕,但離真正追上還存在一定的距離,不過倒是勝在免費(fèi)(手動狗頭)。
多模態(tài)模型大號版上線
在Le Chat中提供圖像分析功能的,正是今天同時發(fā)布的大號版多模態(tài)大模型Pixtral Large。
它擁有124B參數(shù)量,包括一個123B參數(shù)的解碼器和一個1B參數(shù)的視覺編碼器,此前Mistral曾經(jīng)發(fā)布了小號的12B版本。
上下文窗口為128k,相當(dāng)于可以一次性處理至少30張高分辨率圖像。
功能上Pixtral Large支持多語言O(shè)CR識別,并在此基礎(chǔ)上進(jìn)行推理。
也能看懂圖表并分析其中的趨勢。
同時,Pixtral Large在訓(xùn)練的過程當(dāng)中還考慮到了前端應(yīng)用,對此Mistral的CEO Arthur Mensch解釋道:
從Mistral的成長經(jīng)歷中我們意識到,要想創(chuàng)造好的AI體驗(yàn),需要模型和產(chǎn)品界面的協(xié)同設(shè)計(jì)。
Pixtral就是一個很好的例子,它在訓(xùn)練過程中充分考慮了前端應(yīng)用。
而至于模型本身的性能,按照Mistral的說法,Pixtral Large是目前的SOTA視覺模型。
在MMMU、MathVista、ChartQA等六個不同任務(wù)類型的數(shù)據(jù)集中,Pixtral Large取得了超過或接近與Gemini-1.5 Pro和GPT-4o的成績,相對Claude-3.5 Sonnet優(yōu)勢更為明顯,在開源模型中更是遠(yuǎn)遠(yuǎn)超過Llama-3.2 90B。
此外Mistral團(tuán)隊(duì)還以GPT-4o作為評價者,使用其自己開源的MM-MT-Bench基準(zhǔn)進(jìn)行了測試,結(jié)果Pixtral Large領(lǐng)先于其他模型,包括既當(dāng)裁判員又當(dāng)運(yùn)動員的GPT-4o。
有網(wǎng)友看了Pixtral的成績后表示,Benchmark很快又需要更新了。
不過在Reddit上,有人提出質(zhì)疑,表示Pixtral可能并沒有達(dá)到SOTA水準(zhǔn)——
Mistral官方只將Pixtral和少數(shù)模型做了比較,其中開源模型只比較了Llama-3.2 90B。
但實(shí)際在多個數(shù)據(jù)集上,Qwen2-VL(最大版參數(shù)量72B)的表現(xiàn)比Pixtral更強(qiáng)。
同時在部分?jǐn)?shù)據(jù)集中,Pixtral的測試成績也不如Molmo(由西雅圖一家名為Ai2的非營利研究機(jī)構(gòu)開發(fā))。
而且有人實(shí)測之后說,在他測試的含有日文的圖片中,Pixtral Large的識別能力還不如Qwen的7B版本。
那么,你覺得Mistral的新產(chǎn)品到底好不好用呢?
參考鏈接:
[1]https://mistral.ai/news/mistral-chat/
[2]https://mistral.ai/news/pixtral-large/
[3]https://www.reddit.com/r/LocalLLaMA/comments/1gu7cm8/mistral_large_2411_and_pixtral_large_reLease_18th/