Den här veckan är Snap på väg till Computer Vision and Pattern Recognition Conference (CVPR) för att lyfta fram vår ledande forskning och produktinnovation inom generativ AI, datorvision och förstärkt verklighet.
På Snap är vår inställning till forskning att omvandla djärva idéer till banbrytande innovationer och sedan omvandla toppmodern teknik till produkter som vår community kan använda för att uttrycka sin kreativitet.
Våra R&D-framsteg formar Snaps funktioner på Snapchat, våra AR-utvecklingsverktyg Lens Studio, Spectacles och även våra nya AR Enterprise Services och AR Mirrors.
Dessa innovativa produkter har lett Snap till att bli en av de största AR-plattformarna i världen: Mer än 750 miljoner människor använder Snapchat varje månad, mer än 300 000 AR-kreatörer och utvecklare har byggt AR-upplevelser i Lens Studio och företag använder våra sponsrade AR-annonser och AR Enterprise Services för att skapa bättre affärsresultat.
Säg Hej till Snap på CVPR
Snaps teammedlemmar kommer att presentera tolv uppsatser, en handledning och två demos på CVPR i år, inklusive en som särskilt lyfts fram av konferensen. Vi är glada över att uppnå en acceptansgrad på 70 % i år, vilket är ett bevis på de framsteg som gjorts av vårt team.
Här är de fem bästa Snap-sessionerba på CVPR (du inte vill missa!):
Tisdag, 20 juni
Yinghao Xu, Menglei Chai, Zifan Shi, Sida Peng, Ivan Skorokhodov, Aliaksandr Siarohin, Ceyuan Yang, Yujun Shen, Hsin-Ying Lee, Bolei Zhou, Sergey Tulyakov
16:30 - 18:30 | #26
Detta arbete presenterar DisCoScene: en 3D-medveten generativ modell för högkvalitativ och kontrollerbar scensyntes.
Unsupervised Volumetric Animation
Aliaksandr Siarohin, Willi Menapace, Ivan Skorokhodov, Kyle Olszewski, Jian Ren, Hsin-Ying Lee, Menglei Chai, Sergey Tulyakov
16:30 - 18:30 | #50
Denna artikel föreslår en ny metod för oövervakad 3D-animering av icke-fasta deformerbara objekt. Vår metod lär sig 3D-strukturen och dynamiken hos objekt enbart från en visning av RGB-videor och kan dekomponera dem i semantiskt meningsfulla delar som kan spåras och animeras.
3DAvatarGAN: Bridging Domains for Personalized Editable Avatars
Rameen Abdal, Hsin-Ying Lee, Peihao Zhu, Menglei Chai, Aliaksandr Siarohin, Peter Wonka, Sergey Tulyakov
16:30 - 18:30 | #40
Detta bidrag tillåter generering, redigering och animering av personliga konstnärliga 3D-avatarer på konstnärliga datamängder.
Affection: Learning Affective Explanations for Real-World Visual Data
Panos Achlioptas, Maks Ovsjanikov, Leonidas Guibas, Sergey Tulyakov
16:30 - 18:30 | #240
I detta arbete utforskar vi de känslomässiga reaktioner som bilder från verkliga världen tenderar att framkalla genom att använda naturligt språk som medium för att uttrycka logiken bakom en affektiv respons på en given visuell stimulans.
Onsdag, 21 juni
Real-Time Neural Light Field on Mobile Devices
Junli Cao, Huan Wang, Pavlo Chemerys, Vladislav Shakhrai, Ju Hu, Yun Fu, Denys Makoviichuk, Sergey Tulyakov, Jian Ren
10:30 - 12:30 | #10
I detta arbete föreslår vi ett effektivt nätverk som körs i realtid på mobila enheter för neural rendering.
Kom till monter #923 för att träffa vårt team, prova Lens Studio, Spectacles och vår AR Mirror och lär dig mer om karriärmöjligheter på Snap.
Gå med i Snap-familjen
Vi anställer talangfulla forskare, ingenjörer och praktikanter som är specialiserade på maskininlärning, datorvision och naturlig språkbehandling. Registrera dig om du vill bli kontaktad om nuvarande och framtida roller för datorvision och maskininlärning på Snap, eller kolla in alla våra aktuella heltidstjänster på careers.snap.com.
Vi ser fram emot att få träffa dig på CVPR!