Snap的研究團隊在新奧爾良舉行的2022年電腦視覺和模式識別會議上拉開了本週的序幕。今年在CVPR上,我們的團隊將與世界領先的研究人員一起分享七篇新的學術論文,這些論文顯示了在圖像、影片、物體合成和物體操作方法方面的突破。
在這項工作中,我們與實習生和外部學術機構密切合作,在影片合成技術方面取得了重大進展。這些發展可以最終告知我們為世界各地的Snapchatters社區帶來什麼。
我們的文件中提出的工作是根據以下發展。我們的團隊建立了隱性影片表徵,在各種任務上產生了最先進的視頻合成,同時保持了適度的計算要求。然後我們介紹了該領域的兩個新問題:多模態影片合成和可播放環境。
例如,CLIP-NeRF論文是一項合作研究工作,研究神經輻射場的操縱。神經輻射場使使用神經網絡渲染物體成為可能,而不需要複雜的圖形管道。這項工作的研究結果可以幫助改進數碼資產的建立方式,以便在增強現實體驗中使用。而且,這篇PartGlot論文探討了機器如何利用語言模型更好地理解我們周圍的形狀和物體。
我們對這項工作在未來釋放我們社區和創作者在我們產品和平台上的創造力的潛力感到興奮。
要去參加CVPR嗎?
我們的團隊將在現場,所以來打招呼吧!如果您想進一步瞭解我們的論文、團隊和產品,請在展會期間(6月21日至6月23日)到1322號展位參觀,或發送電郵至 conferences@snap.com。
2022 CVPR論文
由Snap Research撰寫並與之合作
可使用環境:空間和時間中的影片操作
Willi Menapace,Stéphane Lathuilière,Aliaksandr Siarohin,Christian Theobalt,Sergey Tulyakov,Vladislav Golyanik,Elisa Ricci Poster 會議:2022年6月21日,星期二:2:30PM-5:00PM
論文編號:2345 |海報編號:99b
告訴我什麼並告訴我如何:通過多模式調節進行影片合成 Ligong Han、Jian Ren、Hsin-Ying Lee、Francesco Barbieri、Kyle Olsewski、Shervin Minaee、Dimitris Metaxas、Sergey Tulyakov
海報會議:2022年6月21日,星期二:2:30PM-5:00PM
論文編號:3594 |海報編號:102b
CLIP-NeRF:文字和圖像驅動的神經輻射場操縱
Can Wang、Menglei Chai、Mingming He、Dong Chen、Jing Liao 海報會議:2022年6月21日,星期二 | 2:30PM-5:00PM
論文編號:6311 |海報編號:123b
StyleGAN-V:具有 StyleGAN2 的價格、圖像質量和優勢的連續影片生成器
Ivan Skorokhodov、Sergey Tulyakov、Mohamed Elhoseiny
海報會議:2022年6月21日,星期二 | 2:30PM-5:00PM
論文編號:5802 |海報編號:103b
通過 GAN Inversion 進行多樣化圖像外繪
Yen-chi Cheng、Chieh Hubert Lin、Hsin-Ying Lee、Jian Ren、Sergey Tulyakov、Ming-hsuan Yorng、Ming-Hish-Young
海報會議:2022年6月23日,星期四 | 10:00AM-12:30PM
論文編號:5449 |海報編號:79a
PartGlot:從語言參考遊戲中學習形狀部分分割
Ian Huang、Juil Koo、Panos Achlioptas、Leonidas Guibas、Minhyuk Sung
海報會議:2022年6月24日,星期五上午8:30-10:18 時
論文編號:3830 |海報編號:49a
多模態變換器是否對缺失的模態堅固?
Mengmeng Ma、Jian Ren、Long Zho、Davide Testugine、Xipengyne
海報會議:2022年6月24日,星期五 | 10:00AM-12:30PM
論文編號:7761 |海報編號:212a