AI幫60年代老技術(shù)解決面料數(shù)字化難題,王華民團隊新方法只需3分鐘數(shù)據(jù)采集復(fù)刻面料真實效果
模擬參數(shù)AI預(yù)測模型
楊凈 發(fā)自 凹非寺
量子位 | 公眾號 QbitAI
當人人談?wù)撛钪鏁r,大家都在關(guān)心什么?空間是否熱鬧豐富,交互是否絲滑……
NoNoNo其實都不是,而是真實感與沉浸感。
△飽受批評的小扎自拍
作為最典型、也是最本質(zhì)的標簽,如果沒有真實沉浸的體驗,那么元宇宙的價值與意義也就不能被大家所感知。
而這一點又不同于動畫電影的那種逼真感,往往只是看起來像就行。當下元宇宙的產(chǎn)業(yè)應(yīng)用,工業(yè)、服裝、數(shù)字孿生等,就不只是要求看著像,而是要和現(xiàn)實世界的某個具體實物盡可能一樣。
△動圖來自SOOGIF
換言之,我們身處的現(xiàn)實世界,無疑成為了當下元宇宙應(yīng)用最關(guān)鍵的參考系,這也對背后的圖形學技術(shù)提出了更高的要求。
于是乎,那些少有人關(guān)注的更多細節(jié),也就成為了技術(shù)流派的攻堅代表。比如數(shù)字人的穿衣打扮,其材質(zhì)、相互作用力等模擬都要比以往更加精細復(fù)雜。
按照傳統(tǒng)的建模方式,又很難完整地定量描述出來;人工智能的方式難以保證其精準度。因此在這幾年發(fā)展十分有限。
現(xiàn)在Style3D王華民團隊提出了一種全新思路,他們從源頭材質(zhì)上入手,從AI所擅長的事情入手,提出了模擬參數(shù)AI預(yù)測模型,結(jié)果模擬出來的效果跟面料實物的真實懸垂或褶皺效果一樣。其研究成果即將發(fā)表在SIGGRAPH Asia 2022上。
而且在現(xiàn)實產(chǎn)業(yè)落地,還有更重要的應(yīng)用價值。
他們將數(shù)據(jù)采集速度提升了5倍。對于數(shù)字化紡織物制造商而言,節(jié)省了一筆不少的時間成本。
來康康它究竟做了啥?
如何打造真實的數(shù)字人服裝
面料仿真,作為數(shù)字人服裝的核心技術(shù), 因為其材質(zhì)以及他們之間復(fù)雜的作用力(自碰撞),被業(yè)界公認為物理模擬仿真最難問題之一。
通常來說,一套“制衣”流程,從技術(shù)角度姑且可以分成建立模型、數(shù)值計算與求解、渲染顯示三個步驟。
其中最重要的部分就是建立模型,甚至直接決定后續(xù)環(huán)節(jié)的實現(xiàn)機制。而為了讓數(shù)字人服裝更真實,需要從構(gòu)建模型的“原材料”,即數(shù)據(jù),開始做起。
這里的“數(shù)據(jù)”,指代的是能反映真實面料信息的模擬參數(shù)。其中,彎曲剛度的測試就是其中不可忽略的影響因素。
彎曲變形,幾乎是所有織物變形的表現(xiàn)形式;織物的彎曲剛度對柔軟度、皺紋細節(jié)等方面的模擬影響很大。
但因為其非線性、各向異性以及多樣化的特性,過去幾十年來,科學家們都致力于對它進行可靠和有效的估計和保證模擬。懸臂法是當前最流行也最直觀的方法,即用一個懸臂來評估布條的彎曲程度。
但實際上,這種方式存在明顯的局限性。比如沒辦法處理卷邊的針織面料。
以及沒法處理復(fù)雜的物理模型,因為從根本上來說,它是將單個參數(shù)孤立出來測,但實際上參數(shù)之間是相互關(guān)聯(lián)的。
更為嚴重的問題,在于仿真誤差。
現(xiàn)有基于懸臂的參數(shù)估計方法都是將彎曲剛度作為現(xiàn)實布料的固有屬性來測量。但本身模擬器就自帶誤差,即便測量再完美,模擬與現(xiàn)實依舊是相差甚遠。
要解決這個問題,思路也很簡單,就是將其當做一個simulation-in-the-loop優(yōu)化問題。
具體來說,就是將參數(shù)當做未知數(shù),把模擬與現(xiàn)實之間的差異作為目標來求解。這樣一來,既能處理復(fù)雜模型的多個參數(shù),也能直接將模擬誤差給解決了。
早在2011年,王華民團隊曾考慮過用數(shù)值方法來解決。
(引入校正角,結(jié)合優(yōu)化算法尋找最佳彎曲剛度參數(shù)。)
之后陸陸續(xù)續(xù)有學者,在使用類似的方式。不過由于參數(shù)與形狀之間的復(fù)雜關(guān)系,導(dǎo)致計算量龐大,整個過程困難且耗時,進展也就有所滯緩。
而又在最近幾年,AI成為另一種探索方式。通過視頻、圖像的學習,讓AI學會預(yù)測面料模擬屬性。
不過因為是在一個自由開放的環(huán)境,導(dǎo)致數(shù)據(jù)收集與訓練困難,以及準確性不是很高的問題。
用AI預(yù)測面料模擬參數(shù)
基于這樣的背景,王華民團隊帶來了全新的思路:
在一個可控的環(huán)境下,利用AI與海量數(shù)據(jù)相結(jié)合,實現(xiàn)快速的模擬參數(shù)預(yù)測。(具體指代的是,面料的彎曲剛度)
首先構(gòu)建一個可控的環(huán)境,即60年代提出的Cusick懸垂測試法,將布料標本懸垂在一個圓柱形平臺上。
之所以可控,是因為相較于更流行的懸臂法而言,它更省時,可以處理更復(fù)雜的面料,不容易受塑性影響,可以更直觀自然地顯示布料的褶皺。
這些特質(zhì)對模擬環(huán)境至關(guān)重要,比如數(shù)字人服裝。
但以往的認知中,懸垂法主要是用來提供彎曲剛度的各種評估指標;而不是用來進行準確的參數(shù)測量。
研究人員開發(fā)了一個深度學習系統(tǒng)來解決這個問題:
先用懸垂法評估現(xiàn)實織物的懸垂性,在用特定模擬器找到最佳彎曲參數(shù),以展現(xiàn)與現(xiàn)實高度一致的彎曲行為。
具體而言,使用懸垂測試儀的多視角深度圖像,來捕捉面料樣本的懸垂形狀,將其作為DNN的特征向量進行推斷,最終得到彎曲剛度參數(shù)。
(深度相機以240×180的分辨率捕捉四幅深度圖像,形成一個特征向量,來描述織物彎曲特性。)
關(guān)鍵問題在于,如何訓練中這樣一個DNN??紤]到現(xiàn)實生活中建立一個大型數(shù)據(jù)集過于耗時,且沒有考慮到采集和模擬過程中的誤差,研究人員開發(fā)了個多達6個參數(shù)的非線性各向異性彎度剛度模型。
但由于整個參數(shù)形成的全空間太大,無法直接采樣。因此,研究人員使用懸臂測試儀大致測量的參數(shù)訓練構(gòu)建出一個參數(shù)子空間——基于變異VAE模型打造的。
這個子空間一方面為布料模擬器提供參數(shù),另一方面,與模擬器一同為訓練網(wǎng)絡(luò)提供樣本數(shù)據(jù),最終訓練出一個基于回歸的預(yù)測模型ResNet-18。
最終在一個有96個英特爾CPU內(nèi)核和4個英偉達RTX 3090的工作站上運行12.7小時得以訓練完成。
采集速度增長了5倍
接著,研究人員從成本、模擬保真度、可靠性以及適用性四個維度評價該系統(tǒng)的性能。
成本方面,包含時間成本和財務(wù)成本。根據(jù)實驗,一個沒有經(jīng)驗的用戶完成一塊織物的整個參數(shù)估計過程,只需要不到3分鐘。而相較于傳統(tǒng)懸臂法的15分鐘,采集速度增長了5倍。
另外,懸垂試驗器價格低廉,除了Azure Kinect深度攝像頭外,該設(shè)備的其余部分成本低于30美元,而且很容易組裝。
而不像懸臂測試儀,所使用的部件都是定制的,在不包含單反相機的情況下至少需要500美元。
在保真度上,他們的系統(tǒng)總體上優(yōu)于懸臂測試儀和基于視頻的方法。
以俯視圖這一視角,可以看到相較于懸垂法,本系統(tǒng)更契合重建系統(tǒng)。
研究人員還邀請了一波用戶,來判斷模擬效果,結(jié)果發(fā)現(xiàn)相較于懸臂測試儀,自身系統(tǒng)模擬出的效果更貼合真實面料懸垂效果。
在可靠性實驗上,研究人員發(fā)現(xiàn),即便織物樣本的懸垂形狀、初始方向不同,也能做出可靠的參數(shù)估計。
除此之外,這個系統(tǒng)還有很好的適應(yīng)性,只要基礎(chǔ)彎曲模型及其參數(shù)相同,不同的模擬器可以產(chǎn)生幾乎相同的懸垂結(jié)果。
其估計的參數(shù)也適用于懸掛情況。
研究人員表示,接下來他們計劃用在下一代面料測量設(shè)備,并拓展到更復(fù)雜的物理模型。
面料數(shù)字化
評價物理仿真引擎好壞的標準,無疑兩方面:性能與保真度。
相信很多人都感知到,不管是布料還是各類形變體、流體模擬,過去在性能上的突破總是進展頻頻,但在保真度上發(fā)展卻十分有限。幾十年發(fā)展至今,人們對CG效果的認知才逐漸從逼真走到真實這個程度。
原因無它,技術(shù)難度太高。
以往相關(guān)的探索大致可以分為兩種思路,一是傳統(tǒng)的構(gòu)建物理模型,且不論材質(zhì)精度能否實現(xiàn),就是各種內(nèi)外部的相互作用,都很難完整地定量描述出來。
另一種則是AI,在一個開放閾里學習布料仿真,其精度和準確性都不能保證。
不過這兩種思路只是粗略拆分,現(xiàn)在也越來越多研究是將兩者結(jié)合,但如前文所述,發(fā)展十分有限。
而王華民團隊則采用了一種全新的思路,從源頭入手,從AI擅長的事情入手。
當然還有更為現(xiàn)實的產(chǎn)業(yè)問題得到解決。
對于數(shù)字化紡織物制造商來說,以往靠懸臂法來測試,即便是有經(jīng)驗的用戶,一塊布條的測試至少需要15分鐘,這其中包括準備樣本和實際測試的時間。
對于庫存動輒上千種面料要進行數(shù)字化的制造商來說,這種人力、時間、物料等各項成本是無法承受的。
而現(xiàn)在王華民團隊的新模型,直接將采集速度提升了5倍,并且很快就會部署到他們數(shù)字化服務(wù)平臺,真正實現(xiàn)產(chǎn)業(yè)落地。
事實上,這種基于技術(shù)創(chuàng)新實現(xiàn)降本增效的事情,在整個面料數(shù)字化進程中并不少見,而王華民團隊所在的凌迪Style3D正是其中進程的代表和參與者,不管是從資本認可、還是在行業(yè)落地等維度上都可見一斑。
今年6月,?凌迪Style3D宣布完成近1億美元Pre-B+輪融資,由高瓴創(chuàng)投、鼎暉等多家機構(gòu)連續(xù)投資。凌迪Style3D發(fā)展多年都持續(xù)一年一次的融資節(jié)奏,在當前資本寒冬期實屬佼佼者。
目前在服裝行業(yè)已經(jīng)深耕7年,幫助企業(yè)在研發(fā)、協(xié)同、展銷、生產(chǎn)全鏈路數(shù)字化,遍布海內(nèi)外板塊,與各細分領(lǐng)域的國際頭部企業(yè)均達成了相關(guān)合作,如Nvidia、Alvanon、YKK、Pantone、Jeanologia等。
而現(xiàn)在隨著元宇宙的興起,凌迪Style3D本身作為基礎(chǔ)設(shè)施的提供者,既有底層技術(shù)和算法優(yōu)勢,又有成熟落地時尚領(lǐng)域的多種軟件工具等,且其業(yè)務(wù)可以外延至更多領(lǐng)域。
比如數(shù)字人、動漫、家居、游戲。據(jù)稱,這些已經(jīng)在凌迪Style3D的考慮范圍中,甚至已經(jīng)落地。百度世界大會亮相的希加加,正是凌迪Style3D提供的服裝模擬技術(shù)支持。
也再一次印證,唯有技術(shù)創(chuàng)新,才能創(chuàng)造產(chǎn)業(yè)價值,也能更適應(yīng)時代洪流。
- 英偉達最新芯片B30A曝光2025-08-20
- AI應(yīng)用如何落地政企?首先不要卷通用大模型2025-08-12
- 本科必學Dijkstra算法被超越!清華段然團隊打破圖靈獎得主證明的普遍最優(yōu)性2025-08-09
- 智能體邁入L4 時代!納米AI多智能體蜂群,可創(chuàng)作最長10分鐘AI視頻2025-08-06