Snap:s forskningsteam kickar igång veckan i New Orleans vid 2022 Computer Vision och Pattern Recognition-konferensen. I år på CVPR, kommer vårt team att visa sju nya akademiska rapporter av världens ledande forskare, som visar genombrott via bild, video, objektsyntes- och objektmanipuleringsmetoder.
Vi har arbetat i nära samarbete internt och med externa akademiska institutioner med det här arbetet för att göra betydelsefulla vinster av videosyntesteknologi. Den här utvecklingen kan i slutändan informera om ved vi ger vår community av Snapchattare världen över.
Arbetet som presenteras i våra rapporter baseras på följande utveckling: Vårt team har byggt implicit video som resulterar i den senaste videosyntesen av en mängd olika uppgifter och samtidigt haft begränsade datorkrav. Vi introducerar sedan två nya problem i domänen: multimodal video och spelbara miljöer.
Till exempel, CLIP-NeRF-rapporten var en gemensam forskningsinsats för att studera manipulationen av neurala utstrålningsfält. Neurala utstrålningsfält gör det möjligt att göra objekt via neurala nätverk, utan att behöva sofistikerad grafik. Resultat från det här arbetet kan hjälpa till att informera om hur digitala tillgångar skapas för användning av upplevelser i förstärkt verklighet. Och, den här PartGlot-rapporten utforskar hur maskiner bättre kan förstå former och objekt runt oss med hjälp av språkmodeller.
Vi ser fram emot potentialen av detta arbete för att frigöra vår communitys kreativitet och kreatörer via våra produkter och plattformar i framtiden.
KOMMER TILL CVPR?
Vårt team kommer att vara på plats så kom och säg hej! Om du vill läsa mer om våra artiklar, team och produkter så kan du komma förbi vår monter #1322 under Expot (21-23 juni) eller mejla conferences@snap.com
2022 CVPR RAPPORTER
Skrivet av och i samarbete med Snap Research
Spelbara miljöer: Videomanipulering i rymd och tid
Willi Menapace, Stéphane Lathuilière, Aliaksandr Siarohin, Christian Theobalt, Sergey Tulyakov, Vladan Golyanik, Elisa Ricci Affisch-session: tisdag 21 juni 2022 kl. 14.30–17:00
Rapport ID: 2345 | Affisch ID: 99b
Visa mig vad och berätta för mig hur: Video Syntes via Multimodal Conditioning Ligong Han, Jian Ren, Hsin-Ying Lee, Francesco Barbieri, Kyle Olszewski, Shervin Minaee, Dimitris Metaxas, Sergey Tulyakov
Affisch-session: tisdag, 21 juni 2022 14:30 – 17:00
Rapport ID: 3594 | Affisch ID: 102b
CLIP-NeRF: Text- och bildmanipulation av neurala strålningsfält
Can Wang, Menglei Chai, Mingming He, Dongdong Chen, Jing Liao Affisch-session: tisdag 21 juni, 2022 | kl. 14:30–17:00
Rapport ID: 6311 | Affisch ID: 123b
StyleGAN-V: En kontinuerlig video-generator med priset, bildkvalitet och förmåner för f StyleGAN2
Ivan Skorokhodov, Sergey Tulyakov, Mohamed Elhoseiny
Affisch-session: tisdag 21 juni 2022 | 14:30 – 17:00
Rapport ID: 5802 | Affisch ID: 103b
Mångskiftande bildutmålning via GAN-inversion
Yen-Chi Cheng, Chieh Hubert Lin, Hsin-Ying Lee, Jian Ren, Sergey Tulyakov, Ming-Hsuan Yang
Affisch-session: torsdag 23 juni 2022 | 10:00 - 12:30
Rapport ID: 5449 | Affisch ID: 79a
PartGlot: Att lära sig form och delsegmentering från spel för språkreferens
Ian Huang, Juil Koo, Panos Achlioptas, Leonidas Guibas, Minhyuk Sung
Affisch-session: fredag 24 juni 2022 08:30 - 10:18
Rapport ID: 3830 | Affisch ID: 49a
Är multimodala transformerare robusta för saknad modalitet?
Mengmeng Ma, Jian Ren, Long Zhao, Davide Testuggine, Xi Peng
Affisch-session: fredag 24 juni 2022 | 10:00 - 12:30
Rapport ID: 7761 |Affisch ID: 212a