CVPR 2020錄用率十年最低,商湯官宣62篇入選
允中 發(fā)自 凹非寺
量子位 報(bào)道 | 公眾號(hào) QbitAI
又到一年一度秀視覺實(shí)力時(shí)。
AI獨(dú)角獸商湯,今日官宣CVPR 2020成績單。
作為AI視覺領(lǐng)域最重要的頂會(huì),商湯一向成績不俗——今年商湯及其聯(lián)合實(shí)驗(yàn)室共有62篇入選,而且還是在整體錄用率創(chuàng)下新低的情況下。
根據(jù)CVPR官方數(shù)據(jù),本屆CVPR大會(huì)共收到6656篇投稿,接收論文1470篇,錄用率約22%,低于ICCV 2019論文錄用率(25%),為十年以來CVPR論文錄用率最低。
而商湯本年入選的論文,分布在多個(gè)領(lǐng)域,包括:對(duì)抗式生成模型、三維點(diǎn)云理解與分析、訓(xùn)練加速與模型量化、視頻理解與分析、網(wǎng)絡(luò)結(jié)構(gòu)搜索等。這些突破性的計(jì)算機(jī)視覺研究也有豐富的應(yīng)用場景,將為推動(dòng)AI行業(yè)發(fā)展作出貢獻(xiàn)。
例如,入選CVPR 2020論文《對(duì)人臉生成模型的隱空間可解釋性分析》提出了一種簡單而通用的技術(shù)InterFaceGAN,用于在潛在空間中進(jìn)行語義人臉編輯,可控制姿勢以及其他面部屬性,例如性別、年齡、眼鏡等,還能夠糾正GAN造成的偽影。
這種方法對(duì)GAN的隱空間進(jìn)行了深入分析,能更好理解GAN是如何將一個(gè)隨機(jī)噪聲轉(zhuǎn)化為一張高質(zhì)量圖片的。
如何提升深度學(xué)習(xí)的訓(xùn)練速度,一直是人工智能領(lǐng)域研究的難點(diǎn)。商湯入選CVPR 2020的論文《用于加速卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練過程INT8訓(xùn)練技術(shù)》,提出了用于加速卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練過程的INT8訓(xùn)練技術(shù),采用8比特?cái)?shù)值訓(xùn)練模型,可以極大地提升訓(xùn)練速度,減少計(jì)算損耗,而且訓(xùn)練精度幾乎無損。
論文地址:
https://arxiv.org/pdf/1912.12607.pdf
傳送門:
其他代表性入選論文,我們也匯集了下地址:
TSD目標(biāo)檢測算法:
https://github.com/Sense-X/TSD
基于空間修剪的NAS算法
論文地址:
http://xxx.itp.ac.cn/pdf/1910.02543v1
Anchor-free目標(biāo)檢測新網(wǎng)絡(luò)
論文地址:
https://arxiv.org/pdf/2003.09119.pdf
代碼地址:
https://github.com/KiveeDong/CentripetalNet
基于貪心超網(wǎng)絡(luò)的One-Shot NAS方法
GreedyNAS: Towards Fast One-Shot NAS with Greedy Supernet
https://arxiv.org/abs/2003.11236
對(duì)于上述論文有解讀或交流興趣的朋友,也歡迎留言區(qū)告訴我們。
意愿強(qiáng)烈又人數(shù)不少的話,我們也可以發(fā)起個(gè)學(xué)習(xí)班,邀請(qǐng)當(dāng)事作者來講解分享,一起進(jìn)步~
另,今年CVPR原計(jì)劃將于6月14日-18日在美國華盛頓州西雅圖舉行。
— 完 —
量子位 QbitAI · 頭條號(hào)簽約
關(guān)注我們,第一時(shí)間獲知前沿科技動(dòng)態(tài)