清朝人如何變戲法?帶你來看AI修復(fù)的1904年老電影(滑稽慎入)
看見了當(dāng)時外國人對東方模糊的認知。
清朝人如何變戲法?
變的都是些什么?
近日,AI修復(fù)上色了一部1904年拍的中國人變戲法的百年老電影。
來看看老電影里的中國戲法是怎么變的。
首先,一位“中國”戲法師舉著油紙傘扇著扇子、邁著輕快的小步快速登場,晃悠好幾圈之后開始“施法”,biu,一張凳子,biu,又變出一張凳子。
接下來,收傘扔一邊,撿起登臺時掉地上的扇子,biu,舞兩下又變出一把油紙傘。
下面,邪門的要來了:
只見戲法師小傘一揮,兩燈籠變金毛!抱著大金毛摸兩下,狗子立馬變女人!還是穿著和服的“日本女人”……
這給戲法師忙活的。
后來他又搞了兩個紙箱子,變兩個人交換位置的戲碼,動圖就不貼了,感覺越來越有西方魔術(shù)那味了。
另外,紙箱上面的字,是模仿的中國字嗎?我怎么一個都不認識。
外國人模仿中國戲法的魔幻電影
一路看下來,是不是覺得這戲法變的,滑稽中帶著一點怪里怪氣?
清朝/古代中國人是這么變戲法的嗎?
難道不應(yīng)該表演一段吞劍、三仙歸洞、仙人摘豆、……嗎?
事情這樣的,這部電影叫《清朝,中國魔法師》(Le thaumaturge chinois ),是法國明星電影公司老板喬治.梅里愛拍的。
劇中都是外國人模仿中國戲法,而且不是真的變魔術(shù),是魔幻電影,用的“停機再拍”手法。
所以大家看得才這么奇怪:
一開始登場的魔術(shù)師的造型就看著很別扭,留著長辮子,穿的服裝卻有點不像漢服,而大變活人變出來的女人穿著和發(fā)型打扮可以說就是相當(dāng)日式了。
整個就是一“滿日”結(jié)合。
說明當(dāng)時的外國人對中國乃至東方的認知還是模糊的。
布景細看也奇怪,那棟牌樓看著像中國風(fēng),上面印著卻只是看著像方塊字的豎牌匾,后面的橋就更奇怪了。
日本明治風(fēng)嗎?
魔術(shù)師手里的油紙傘感覺也不太像樣。
好在原版電影的配樂還有點中國味。
給大家截取一個原版片段:
別的不說,AI修復(fù)過后的視頻確實看起來舒服了很多,畫面噪音都沒了。
AI修復(fù)讓老片變流暢、清晰、有顏色
近幾年來,AI修復(fù)上色老影像層出不窮,比如此前大火的修復(fù)古董紀錄片還原20年代的老北京生活、修復(fù)上海民國名媛時裝展影像、《我的祖國》MV變4K高清彩色等。
他們用到的技術(shù)都差不多。
一般修復(fù)老影像工作包括插幀、提升分辨率、上色這三個步驟。
插幀是為了讓老片的幀數(shù)至少達到24fps(人眼看視頻不卡頓的下限),畫面看起來才能連貫、流暢。
通過分析相鄰兩幀的差異和運動軌跡來產(chǎn)生中間幀。
先進的算法比如英偉達開源的Super SloMo,從30fps插幀到240fps,即使放慢8倍也不會感到卡頓。
而上海交通大學(xué)開源的DAIN算法,比英偉達的效果更清晰、幀率更高,可以把30fps進一步插幀到480fps。
提升分辨率就是對圖片降噪去顆粒,增加像素細節(jié),讓看起來像打了馬賽克的畫面變清晰。
用的是超分辨率(Super-Resolution,SR)技術(shù),傳統(tǒng)的超分辨率分成以下三方面:基于插值、基于重建、基于學(xué)習(xí)(非深度學(xué)習(xí))。
基于插值的方法很常用,和上面說的插幀想法類似,估計每個新像素要顯示什么內(nèi)容,需要基于它們周邊的像素。常見以下三種:
1、最臨近插值法:簡單但效果一般,利用與其最近鄰相同的顏色填充空白像素。但結(jié)果是一個鋸齒狀、明顯像素化的圖像。
2、雙線性插值法:基于最近的兩個像素來分析空白像素,并在它們之間生成一個梯度,圖像會清晰不少。
3、雙三次插值法:會對其16個最近鄰像素進行采樣,著色變得精確,但仍然存在圖像模糊的問題。
可結(jié)合雙線性插值和雙三次插值使用。
除了上面三種基于插值、重建和學(xué)習(xí)(非深度學(xué)習(xí)),還有基于深度學(xué)習(xí)的超分辨率技術(shù),如SRCNN、EDSR等。
提高了老影像的流暢度和清晰度,就差上色了。
上色需要利用神經(jīng)網(wǎng)絡(luò),訓(xùn)練一堆彩色照片,將它們轉(zhuǎn)換成黑色和白色,然后對我們要操作的行圖像進行分割和識別,然后找到黑白圖像中灰度與色彩的對應(yīng)聯(lián)系就能著色。
最好用的上色模型就是Facebook開源的DeOldify了,用的是NoGAN的技術(shù),這是一種基于GAN的訓(xùn)練方法,但細節(jié)處理效果更好,渲染也更逼真。
各種老影像資料和電影都是人類共同的財產(chǎn),修復(fù)它們可以讓更多的人愿意重溫經(jīng)典、回顧歷史。
使用AI修復(fù)上色老影片肯定是比人類快,有時人類修復(fù)師需好幾個人人花兩三周完成的電影,AI最快只需12小時。
它可以批量完成去噪、去模糊、去劃痕、去閃爍等一系列工作,而隨著AI修復(fù)的越來越多,背后的算法也能不斷學(xué)習(xí)和改正,效果會越來越好。
但是AI的局限性必然也有,它可能把抗美援朝志愿軍戰(zhàn)士們穿的黃綠色軍裝上色為青色或者一味追求現(xiàn)代質(zhì)感等,所以需要人類修復(fù)師的歷史知識和審美能力來把關(guān)細節(jié)。
AI歷史影像館
本次介紹的修復(fù)視頻來自B站up主AI歷史影像館:
該賬號快1萬個粉絲,從2020年8月以來一共發(fā)布快300多個AI修復(fù)視頻,從上世紀初到80年代,從廣州到吉林,從國家大事到老百姓日常生活,貢獻了很多修復(fù)后的寶貴歷史影像資料。
最后,看《清朝,中國魔法師》修復(fù)后的影像請戳:https://www.bilibili.com/video/BV1t5411g73w
參考鏈接:
[1]https://baijiahao.baidu.com/s?id=1640978141975464960&wfr=spider&for=pc
[2]https://xw.qq.com/cmsid/20200514A0507G00
[3]https://blog.csdn.net/sinat_37011812/article/details/105452749
- 北大開源最強aiXcoder-7B代碼大模型!聚焦真實開發(fā)場景,專為企業(yè)私有部署設(shè)計2024-04-09
- 剛剛,圖靈獎揭曉!史上首位數(shù)學(xué)和計算機最高獎“雙料王”出現(xiàn)了2024-04-10
- 8.3K Stars!《多模態(tài)大語言模型綜述》重大升級2024-04-10
- 谷歌最強大模型免費開放了!長音頻理解功能獨一份,100萬上下文敞開用2024-04-10