
以下是本次直播實錄“預測大模型”部分——

Genji:剛才提到的“預測大模型”這個詞比較新,請簡單概述一下。
常博士:現(xiàn)有所有的AI都是利用部分數(shù)據(jù)訓練出的特定場景的模型來解決特定問題。我們希望通過預測大型模型可以在世界上所有可獲取的數(shù)據(jù)知識中進行統(tǒng)一學習,然后將AI部署和應用于無限多的場景中。甚至在一些新出現(xiàn)的場景中,我們也可以遷移模型并加以利用。這就是我們的愿景:無限數(shù)據(jù)的學習,無限場景的應用。

Genji:我很好奇在盤古預測大模型中,您是基于什么動機和背景去做的?
常博士:企業(yè)面對有限數(shù)據(jù)構建 AI 分析模型時,既需要突破數(shù)據(jù)量不足的瓶頸,又要解決小樣本場景下模型精度優(yōu)化的技術難題,而現(xiàn)有技術體系尚未形成系統(tǒng)性解決方案。因此,我們對預測大模型的核心期望在于:通過構建具備知識泛化能力的模型架構,使其在完成多源數(shù)據(jù)學習后,能夠無縫遷移至各類新興業(yè)務場景及下游任務。這一需求的底層邏輯源于 To B 業(yè)務的現(xiàn)實約束 —— 當面對海量客戶需求時,傳統(tǒng)定制化解決方案難以規(guī)?;涞?,而挖掘場景共性并實現(xiàn)批量式問題解決,成為破局的關鍵路徑。
Genji:在這么多數(shù)據(jù)的技術架構探索中,您有什么發(fā)現(xiàn)和洞見可以與我們分享嗎?
常博士:在 AI 應用實踐中,視覺與語言領域因數(shù)據(jù)規(guī)模龐大,已通過大模型技術實現(xiàn)系統(tǒng)性突破。但更多垂直場景仍面臨「定制化建模困境」:傳統(tǒng)方案需針對每個場景的數(shù)據(jù)格式、類型設計專屬網(wǎng)絡結構,這種「一事一模型」的模式不僅難以覆蓋海量場景,更導致不同模型間形成「智能孤島」—— 各場景的 AI 能力彼此割裂,無法通過知識共享實現(xiàn)協(xié)同進化。
追根溯源,該問題的本質在于數(shù)據(jù)表征的碎片化。所有數(shù)據(jù)本質上都是對物理世界的離散化建模:
- 圖像數(shù)據(jù)以二維網(wǎng)格為基本單元(像素陣列),無論是手機拍攝的風景照、天文望遠鏡捕捉的星系圖像,還是顯微鏡下的微觀影像,其數(shù)據(jù)結構均遵循格子空間規(guī)律,這也是卷積神經(jīng)網(wǎng)絡(CNN)通過局部特征掃描實現(xiàn)高效建模的底層邏輯;
- 文本數(shù)據(jù)呈現(xiàn)單向序列結構(字符流),與圖像的二維空間截然不同,因此 Transformer 通過自注意力機制捕捉序列依賴關系;
- 工業(yè)傳感器數(shù)據(jù)則更為復雜,不同設備的采樣頻率、空間分布、物理含義差異顯著,導致其數(shù)據(jù)結構缺乏統(tǒng)一范式。
這種數(shù)據(jù)結構的多樣性,使得傳統(tǒng) AI 模型必須針對特定場景設計專屬架構。當石油鉆井傳感器數(shù)據(jù)(時序 + 空間多維信號)、醫(yī)療影像(三維體數(shù)據(jù))、物流路徑數(shù)據(jù)(圖結構)等并存時,差異化的模型架構導致知識遷移難以實現(xiàn)。因此,突破的關鍵在于建立「數(shù)據(jù)原子級表征體系」—— 通過抽象不同數(shù)據(jù)形態(tài)的底層共性,在表征層面構建統(tǒng)一的數(shù)學語言,為跨場景智能遷移奠定基礎。這一思路既需要解構物理世界的信息編碼規(guī)律,也需重構 AI 模型的底層表征范式,是打破智能孤島的核心技術路徑。
Genji:在我聽起來,我們目前要做的很像是愛因斯坦找尋的大一統(tǒng)理論,所以是這樣嗎?
常博士:是的。我們致力于構建的大一統(tǒng) AI,其本質是通過全量數(shù)據(jù)的統(tǒng)一學習,實現(xiàn)“一次訓練、全域遷移“的智能進化。這一目標的核心在于:讓 AI 在掌握圖像、語言、藥物分子、工業(yè)數(shù)據(jù)等全類型數(shù)據(jù)的底層規(guī)律后,能自主適應從未見過的新場景,從而打破傳統(tǒng) AI“一場景區(qū)分一模型”的碎片化局限。我可以舉個很簡單的例子,我們可以把不同的數(shù)據(jù)嵌入不同的空間,就相當于照片、語言、藥物分子、表格等分別在不同空間,我們可以將這些不同的空間想象成分子結構,人類分子的種類有無窮多個,可以合成非常多種類的分子,但是構成分子的原子數(shù)量并不是很多,也就是我們所謂的原子級表達,這是我們期望做到的,當有了原子級表達之后,所有的數(shù)據(jù)看來都是一樣的,我就可以進行下一步的學習,通過原子級表征發(fā)現(xiàn)數(shù)據(jù)背后的普適規(guī)律。
Genji:在這個過程中有哪些應用的案例?
常博士:在具體應用里面,比如煉鋼這個過程,輸入層是鐵礦石原料配比、燃煤量、氧氣 / 空氣注入量等實時變化的參數(shù),輸出層是鐵水溫度預測值。在這類復雜工業(yè)場景中,傳感器數(shù)據(jù)量遠少于視覺數(shù)據(jù),僅靠本場景數(shù)據(jù)難以構建精準模型。而大一統(tǒng) AI 方案通過跨領域數(shù)據(jù)學習,將預訓練模型遷移至煉鋼場景,實現(xiàn)高效適配。國內某大型鋼廠應用后,模型預測準確率遠超傳統(tǒng)方案。此類工業(yè)場景在國內數(shù)量眾多,大一統(tǒng) AI 突破數(shù)據(jù)稀缺瓶頸,以知識遷移實現(xiàn)批量價值創(chuàng)造,為制造業(yè)數(shù)字化提供關鍵支撐。

Genji:既然已經(jīng)做了這么多事情,那么您在這一塊有遇到哪些攻堅克難的細節(jié)可以分享嗎?
常博士:在全球及國內大模型聚焦語言、視覺、視頻或單一行業(yè)(如蛋白質分析)的當下,華為自主研發(fā)的預測大模型走出了差異化路徑。該模型在研發(fā)初期面臨多重挑戰(zhàn):由于覆蓋場景遠超語言 / 視頻等單一領域,即便投入大量資源仍難以窮舉所有需求;更關鍵的是,業(yè)界缺乏可參考的成熟方案,團隊需從零開始探索技術路線的正確性、效果及價值,甚至一度質疑核心問題的定位。我們逐漸意識到,傳統(tǒng)的定制化模式無法根治問題,必須從底層實現(xiàn)大一統(tǒng):統(tǒng)一數(shù)據(jù)格式、架構設計及模型體系。這一決策的核心邏輯在于:唯有通過標準化整合,才能突破場景碎片化瓶頸。如今團隊已明確目標,正基于該思路推進技術落地。
Genji:在這個脈絡里,您覺得未來預測大模型有什么發(fā)展趨勢方向?或者您又有什么感興趣的研究領域?
常博士:今年我們推出了基于統(tǒng)一編碼與架構的首個技術版本。這條技術路徑蘊含巨大探索空間,我認為未來學術界會有更多研究者投身于此 —— 唯有錨定「雙統(tǒng)一」核心方向,才能推動技術沿著正確軌跡演進。
接下來我們規(guī)劃了兩條優(yōu)化路線:第一條是延續(xù)現(xiàn)有技術路徑,通過持續(xù)擴充數(shù)據(jù)規(guī)模優(yōu)化模型性能;第二條聚焦 To B 場景落地難點:許多客戶雖持有數(shù)據(jù),卻缺乏數(shù)據(jù)建模與分析能力;
預測大模型當前仍依賴“先定義問題再解決問題”的模式,需要與 Agent 智能體協(xié)作完成問題構建。這既是預測大模型在 B 端場景的突破方向,也是未來技術迭代的關鍵著力點。

Genji:您提到AGI,我相信AGI會到來,AGI到來也一定是以解決問題為導向的,那么關于AGI的未來,大模型的明天,您認為有哪些趨勢和脈絡?
常博士:AGI 的本質在于具備人類般的「通用智能」—— 如同人類從小學到職場的成長歷程中解決了100件任務,未來面對第 101 件與過往完全不同的新任務,也能通過抽象過往經(jīng)驗的本質規(guī)律實現(xiàn)平滑解決。這種能力的核心特征是:
1、知識遷移的靈活性:不依賴特定場景的訓練數(shù)據(jù),而是從機械學習、語言理解、圖像識別等跨領域經(jīng)驗中提煉共性邏輯(如因果推斷、模式識別);
2、問題本質的洞察力:能識別新問題與歷史任務在底層邏輯上的相似性(如將金融風控問題類比為醫(yī)療診斷的概率推理模型)。
上述兩點構成 AGI 的核心進化閉環(huán):
解決新問題 → 積累新經(jīng)驗 → 豐富知識基底;
發(fā)現(xiàn)新問題 → 定義新任務 → 驅動智能邊界擴展。
這種模式如同人類科學發(fā)現(xiàn)的迭代過程 —— 從牛頓力學解決宏觀運動問題,到愛因斯坦相對論主動發(fā)現(xiàn)時空本質問題。當 AGI 具備該能力時,其發(fā)展將突破人類預設的任務邊界,形成自我驅動的“智能奇點”。
Genji:剛才常博士分享的過程中,引入了從小學到初中學習路徑。這個世界從來不缺好答案,缺一個好問題。去年全國一卷的語文高考題目,也是這個類型的問題,像人工智能一直在探討關于問題與答案之間的關聯(lián)關系,我曾看過一本書叫《第三次教育革命》,在教育里,您剛才提到小學初中這個階段,我們一般學習的東西,包含了知識、信息和經(jīng)驗,其中經(jīng)驗是最難獲取的,知識反而成本沒有那么高,因為它都印在書本上,就像您所說,基于理論推演出大一統(tǒng),再通過大一統(tǒng)泛化,這個依托的就是經(jīng)驗,這也AGI,這其實是一件事情非常的“帶勁”事情。
常博士:是的。我本科學習數(shù)學時常常做證明題,當時不理解其意義,老師說數(shù)學的本質是當你忘記所有具體證明后剩下的邏輯思維能力,這和 AGI 很相似:AGI 不應局限于記憶具體數(shù)據(jù),而要從數(shù)據(jù)中抽象出普適規(guī)律,并用這些規(guī)律遷移解決全新場景的問題,這是合格 AGI 的標準;若能在此基礎上自主發(fā)現(xiàn)問題、持續(xù)迭代進化,就能邁向強 AGI,其核心在于讓智能擺脫具體知識的束縛,成為可自主認知和創(chuàng)造的規(guī)律發(fā)現(xiàn)系統(tǒng)。
圍繞預測大模型的工業(yè)化和to B端展開探討,華為云通過業(yè)界首創(chuàng)的triplet transformer統(tǒng)一預訓練架構,將多源數(shù)據(jù)進行統(tǒng)一的三元組編碼,并在同一框架內高效處理和預訓練,不斷強化預測大模型能力,為其跨行業(yè)、跨場景的泛化應用提供助力。