Snaps forskningsteam begynder ugen i New Orleans ved 2022 Computer Vision and Pattern Recognition-konferencen. Vores team deler i år ved CVPR syv nye akademiske artikler, side om side med verdens førende forskere, der viser gennembrud med billed-, video-, objektsammenstilling- og objektmanipulationsmetoder.
Vi har haft et tæt samarbejde med praktikanter og eksterne akademiske institutioner om dette arbejde for at opnå betydelige fremskridt inden for videosammensætningsteknologi. Disse udviklinger kan i sidste ende præge, hvad vi bringer til vores fællesskab af Snapchattere i hele verden.
Det arbejde, der fremlægges i vores artikler, bygger på de følgende udviklinger: Vores team har bygget implicitte videorepræsentationer, der resulterer i den nyeste videosammensætning for en række opgaver med beskedne krav til computerkraft Derefter præsenterer vi to nye problemer på domænet: multimodal videosammensætning og interaktive miljøer.
CLIP-NeRF-artiklen var, for eksempel, et forskningssamarbejde om at undersøge manipulation af såkaldte Neural Radiance fields. Neural Radiance fields gør det muligt at rendere objekter med neurale netværk, uden behov for sofistikeret grafik. Resultaterne fra dette arbejde kan være med til at præge forbedringer af de måder, digitale aktiver bliver skabt til brug til augmented reality-oplevelser. Og denne PartGlot-artikel undersøger, hvordan maskiner bedre kan forstå former og genstande omkring os ved hjælp af sprogmodeller.
Vi er begejstrede omkring det potentiale, der ligger i dette arbejde, til at lukke op for vores fællesskabs og skaberes kreativitet på tværs af vores produkter og platforme i fremtiden.
SKAL DU TIL CVPR?
Vores team er der, så kom forbi og hils på! Hvis du gerne vil lære mere om vores artikler, team og produkter, så kom forbi stand nr. 1322 under udstillingen (21. juni-23. juni) eller send en e-mail til conferences@snap.com
2022 CVPR-ARTIKLER
Skrevet af og i samarbejde med Snap Research
Playable Environments: Video Manipulation in Space and Time
Willi Menapace, Stéphane Lathuilière, Aliaksandr Siarohin, Christian Theobalt, Sergey Tulyakov, Vladislav Golyanik, Elisa Ricci Plakatpræsentation: tirsdag, 21. juni 2022 kl. 14:30-17:00
Artikel-id: 2345 | Plakat-id: 99b
Show Me What and Tell Me How: Video Synthesis via Multimodal Conditioning Ligong Han, Jian Ren, Hsin-Ying Lee, Francesco Barbieri, Kyle Olszewski, Shervin Minaee, Dimitris Metaxas, Sergey Tulyakov
Plakatpræsentation: tirsdag d. 21. juni 2022 kl. 14:30-17:00
Artikel-id: 3594 | Plakat-id: 102b
CLIP-NeRF: Text-and-Image Driven Manipulation of Neural Radiance Fields
Can Wang, Menglei Chai, Mingming He, Dongdong Chen, Jing Liao Plakatpræsentation: tirsdag d. 21. juni 2022 | kl. 14:30-17:00
Artikel-id: 6311 | Plakat-id: 123b
StyleGAN-V: A Continuous Video Generator with the Price, Image Quality and Perks of StyleGAN2
Ivan Skorokhodov, Sergey Tulyakov, Mohamed Elhoseiny
Plakatpræsentation: tirsdag d. 21. juni 2022 | kl. 14:30-17:00
Artikel-id: 5802 | Plakat-id: 103b
Diverse Image Outpainting via GAN Inversion
Yen-Chi Cheng, Chieh Hubert Lin, Hsin-Ying Lee, Jian Ren, Sergey Tulyakov, Ming-Hsuan Yang
Plakatpræsentation: tirsdag d. 23. juni 2022 | kl. 10:00-12:30
Artikel-id: 5449 | Plakat-id: 79a
PartGlot: Learning Shape Part Segmentation from Language Reference Games
Ian Huang,Juil Koo, Panos Achlioptas, Leonidas Guibas, Minhyuk Sung
Plakatpræsentation: fredag d. 24. juni 2022 kl. 8:30-10:18
Artikel-id: 3830 | Plakat-id: 49a
Are Multimodal Transformers Robust to Missing Modality?
Mengmeng Ma, Jian Ren, Long Zhao, Davide Testuggine, Xi Peng
Plakatpræsentation: fredag d. 24. juni 2022 | kl. 10:00-12:30
Artikel-id: 7761 | Plakat-id: 212a