Snaps forskerteam åpner uken i New Orleans på Konferansen for datasyn og mønstergjenkjenning (CVPR) 2022. I år på CVPR, vil teamet vårt dele sju nye akademiske artikler, sammen med verdens ledende forskere, som viser gjennombrudd på bilder, video, objektsyntese og metoder for objektmanipulering.
Vi har samarbeidet tett med praktikanter og eksterne akademiske institusjoner i dette arbeidet for å gjøre betydelige framskritt innen videosynteseteknologi. Disse utviklingene kan påvirke hva vi leverer til fellesskapet av Snapchattere rundt hele verden.
Arbeidet lagt fram i våre artikler er basert på følgende utviklinger: Teamet vårt har bygget implisitte videorepresentasjoner, noe som har resultert i toppmoderne videosyntese for en rekke oppgaver, samtidig som de stiller moderate krav til databehandling. Vi introduserer deretter to nye problemer i feltet: multimodal videosyntese og spillbare miljøer.
For eksempel, CLIP-NeRF artikkelen var en felles forskningsinnsats som studerer manipuleringen av nevrale utstrålingsfelt. Nevrale utstrålingsfelt gjør det mulig å avbilde objekter med bruk av nevrale nettverk, uten å kreve avanserte graphiske kanaler. Resultat fra dette arbeidet kan påvirke forbedringer til måten digitale eiendeler er tilpasset bruk i utvidet virkelighet-opplevelser. Og, denne PartGlot artikkelen utforsker hvordan maskiner kan bedre forstå former og objekter rundt oss ved å bruke språkmodeller.
Vi er begeistret for potensialet dette arbeidet har i fremtiden til å løse ut kreativiteten i fellesskapet vårt og kreatørene av våre produkter og plattformer.
SKAL DU PÅ CVPR?
Teamet vårt er på stedet så kom og si hei! Hvis du vil vite mer om våre artikler, team og produkter, kan du besøke stand #1322 under Expoen (21. juni – 23. juni) eller sende en e-post til conferences@snap.com
2022 CVPR ARTIKLER
Skrevet av og i samarbeid med Snap Research
Spillbare miljøer: Videomanipulering i rom og tid
Willi Menapace, Stéphane Lathuilière, Aliaksandr Siarohin, Christian Theobalt, Sergey Tulyakov, Vladislav Golyanik, Elisa Plakat økt, tirsdag 21. juni 2022 14.30–17.00
Artikkel ID: 2345 | Plakat ID: 99b
Vis meg hva og fortell meg hvordan: Videosyntese via multimodal kondisjonering Ligong Han, Jian Ren, Hsin-Ying Lee, Francesco Barbieri, Kyle Olszewski, Shervin Minaee, Dimitris Metaxas, Sergey Tulyakov
Plakat økt: tirsdag 21. juni 2022 14.30–17.00
Artikkel ID: 3594 | Plakat ID: 102b
CLIP-NeRF: Tekst- og bildedrevet manipulering av nevrale utstrålingsfelt
Can Wang, Menglei Chai, Mingming He, Dongdong Chen, Jing Liao Plakat økt: tirsdag 21. juni 2022 | 1.30–17.00
Artikkel ID: 6311 | Plakat ID: 123b
StyleGAN-V: En kontinuerlig videogenerator med prisen, bildekvaliteten og fordelene av StyleGAN2
Ivan Skorokhodov, Sergey Tulyakov, Mohamed Elhoseiny
Plakat økt: tirsdag 21. juni 2022 | 14.30–17.00
Artikkel ID: 5802 | Plakat ID: 103b
Diverse bildeutmaling via GAN Inversion
Yen-Chi Cheng, Chieh Hubert Lin, Hsin-Ying Lee, Jian Ren, Sergey Tulyakov, Ming-Hsuan Yang
Plakat økt: torsdag 23. juni 2022 | 10.00–12.30
Artikkel ID: 5449 | Plakat ID: 79a
PartGlot: Læring av formdelsegmentering fra språkreferansespill
Ian Huang, Juil Koo, Panos Achlioptas, Leonidas Guibas, Minhyuk Sung
Plakat økt: fredag 24. juni 2022 8.30–10.18
Artikkel ID: 3830 | Plakat ID: 49a
Tåler multimodale transformatorer å miste modalitet?
Mengmeng Ma, Jian Ren, Long Zhao, Davide Testuggine, Xi Penn
Plakat økt: fredag 24. juni 2022 | 10.00–12.30
Artikkel ID: 7761 | Plakat ID: 212a