可生成高清視頻的Stable Diffusion來了!分辨率提升4倍,超分算法來自騰訊,支持Colab在線試玩
明敏 發(fā)自 凹非寺
量子位 | 公眾號 QbitAI
免費玩的Stable diffusion,又出新變種了!
古典人像絲滑切換,還都是4倍超分辨率水平,細(xì)節(jié)也就多了億點點吧,眉毛發(fā)絲都根根分明。
還能從一盤草莓意大利面,絲滑變成一份藍(lán)莓面。
這就是最近在推特上火了Stable Diffusion視頻版2.0.
它能夠通過Real-ESRGAN進(jìn)行上采樣,讓生成畫面達(dá)到4倍超分。
要知道,之前Stable Diffusion生成的圖像如果想要高清,還得自己手動提升分辨率。
現(xiàn)在直接二合一,在谷歌Colab上就能跑!
食用指南
Colab上的操作非常簡單,基本上就是傻瓜式按照步驟運行即可。
需要注意的是,過程中要從個人Hugging Face賬戶中復(fù)制token登入。
拉取模型前,記得在Hugging Face上授權(quán),否則會出現(xiàn)403錯誤。
搞定以上問題后,就能來用Stable Diffusion來生成高清視頻了。
生成一段視頻需要給出2個提示詞,然后設(shè)置中間的步數(shù),以及是否需要上采樣。
中間步驟越多,生成所需的時間越長;同樣上采樣也會一定程度上加長生成時間。
還能直接用代碼來跑,修改幾個簡單的參數(shù)就能搞定。
除了線上模式外,該模型還支持本地運行,項目已在GitHub上開源。
注意需要額外安裝Real-ESRGAN。
超分算法來自騰訊
簡單來說,這次Stable Diffusion的變種版本就是把生成的圖片,通過超分辨率方法變得高清。
Stable Diffusion的原理,是擴散模型利用去噪自編碼器的連續(xù)應(yīng)用,逐步生成圖像。
一般所言的擴散,是反復(fù)在圖像中添加小的、隨機的噪聲。而擴散模型則與這個過程相反——將噪聲生成高清圖像。訓(xùn)練的神經(jīng)網(wǎng)絡(luò)通常為U-net。
不過因為模型是直接在像素空間運行,導(dǎo)致擴散模型的訓(xùn)練、計算成本十分昂貴。
基于這樣的背景下,Stable Diffusion主要分兩步進(jìn)行。
首先,使用編碼器將圖像x壓縮為較低維的潛在空間表示z(x)。
其中上下文(Context)y,即輸入的文本提示,用來指導(dǎo)x的去噪。
它與時間步長t一起,以簡單連接和交叉兩種方式,注入到潛在空間表示中去。
隨后在z(x)基礎(chǔ)上進(jìn)行擴散與去噪。換言之, 就是模型并不直接在圖像上進(jìn)行計算,從而減少了訓(xùn)練時間、效果更好。
再來看超分辨率部分。
用到的方法是騰訊ARC實驗室此前開發(fā)的Real-ESRGAN,被ICCV 2021接收。
它可以更有效地消除低分辯率圖像中的振鈴和overshoot偽影;
面對真實風(fēng)景圖片,能更逼真地恢復(fù)細(xì)節(jié),比如樹枝、巖石、磚塊等。
原理方面,研究人員引出了高階退化過程來模擬出更真實全面的退化,它包含多個重復(fù)的經(jīng)典退化過程,每個又具有不同的退化超參:
下圖為Real-ESRGAN進(jìn)行退化模擬的示意圖:
采用的是二階退化,具體可分為在模糊(blur)、降噪(noise)、resize、JPGE壓縮幾個方面。
到訓(xùn)練環(huán)節(jié),Real-ESRGAN的生成器用的是RRDBNet,還擴展了原始的×4 ESRGAN架構(gòu),以執(zhí)行resize比例因子為×2和×1的超分辨率放大。
想要單獨使用這種超分算法也不是問題。
在GitHub上下載該模型的可執(zhí)行文件,Windows/Linux/MacOS都可以,且不需要CUDA或PyTorch的支持。
下好以后只需在終端執(zhí)行以下命令即可使用:
./realesrgan-ncnn-vulkan.exe -i input.jpg -o output.png
值得一提的是,Real-ESRGAN的一作Wang Xintao是圖像/視頻超分辨率領(lǐng)域的知名學(xué)者。
他本科畢業(yè)于浙江大學(xué)本科,香港中文大學(xué)博士(師從湯曉鷗),現(xiàn)在是騰訊ARC實驗室(深圳應(yīng)用研究中心)的研究員。
此前曾登頂GitHub熱榜的項目GFPGAN也是他的代表作。
One More Thing
前兩天,大谷老師也發(fā)布了用Stable Diffusion生成了一組少女人像,效果非常奈斯。
順帶讓我們都完成了一下“閱女無數(shù)”的成就(doge)。
Stable Diffusion還能玩出哪些新花樣?你不來試試嗎?
Colab試玩:
https://colab.research.google.com/github/nateraw/stable-diffusion-videos/blob/main/stable_diffusion_videos.ipynb
GitHub地址:
https://github.com/nateraw/stable-diffusion-videos
Hugging Face授權(quán):
https://huggingface.co/CompVis/stable-diffusion-v1-4
參考鏈接:
[1]https://twitter.com/_nateraw/status/1569315090314444802
[2]https://www.bilibili.com/video/BV1yd4y1g7Wz?spm_id_from=333.999.0.0