19 iunie 2023
19 iunie 2023

Snap prezintă progresele în cercetare la CVPR 2023

Cercetarea noastră de vârf în domeniul inteligenței artificiale generative, al viziunii computerizate și al realității augmentate modelează produsele Snap și ajunge la comunitatea noastră globală

Săptămâna aceasta, Snap se îndreaptă către Computer Vision and Pattern Recognition Conference (CVPR) pentru a scoate în evidență cercetările noastre de vârf și inovațiile de produs în domeniul inteligenței artificiale generative, al viziunii computerizate și al realității augmentate. 

La Snap, abordarea noastră în materie de cercetare este de a transforma ideile îndrăznețe în inovații revoluționare, iar apoi de a transforma tehnologiile de ultimă generație în produse pe care comunitatea noastră le poate folosi pentru a-și exprima creativitatea. 

Progresele noastre în domeniul cercetări și dezvoltării modelează funcțiile Snap de pe Snapchat, instrumentul nostru de dezvoltare AR Lens Studio, Spectacles și chiar noile noastre AR Enterprise Services și AR Mirrors. 

Aceste produse inovatoare au făcut ca Snap să devină una dintre cele mai mari platforme de realitate augmentată din lume: Peste 750 de milioane de oameni folosesc Snapchat în fiecare lună, peste 300.000 de creatori și dezvoltatori AR au creat experiențe AR în Lens Studio, iar companiile folosesc reclame AR sponsorizate și serviciile AR Enterprise Services pentru a obține rezultate de afaceri mai bune. 


Salută-l pe Snap la CVPR 


Membrii echipei Snap vor prezenta douăsprezece lucrări, un tutorial și două demo-uri la CVPR anul acesta, inclusiv unul evidențiat de conferință. Suntem încântați să obținem o rată de acceptare a lucrărilor de 70% în acest an, ceea ce reprezintă o dovadă a progreselor realizate de echipa noastră. 

We're excited to achieve a 70% paper acceptance rate this year.

Iată cinci sesiuni Snap de top de la CVPR (pe care nu trebuie să le ratezi!): 

Marți, 20 iunie

DisCoScene: Spatially Disentangled Generative Radiance Fields for Controllable 3D-aware Scene Synthesis (DiscoScene: Câmpuri de radiație generative dezarticulate spațial pentru sinteza controlabilă a scenei 3D)

Yinghao Xu, Menglei Chai, Zifan Shi, Sida Peng, Ivan Skorokhodov, Aliaksandr Siarohin, Ceyuan Yang, Yujun Shen, Hsin-Ying Lee, Bolei Zhou, Sergey Tulyakov

4:30 - 6:30pm | #26 

Această lucrare prezintă DisCoScene: un model generativ 3D conștient pentru sinteza scenei de înaltă calitate și controlabilă. 


Unsupervised Volumetric Animation (Animație volumetrică nesupravegheată) 

Aliaksandr Siarohin, Willi Menapace, Ivan Skorokhodov, Kyle Olszewski, Jian Ren, Hsin-Ying Lee, Menglei Chai, Sergey Tulyakov

4:30 -6:30pm | #50

Această lucrare propune o abordare nouă pentru animația 3D nesupravegheată a obiectelor deformabile nerigide. Metoda noastră învață structura și dinamica 3D a obiectelor doar din videoclipuri RGB cu o singură vizualizare și le poate descompune în părți semnificative din punct de vedere semantic, care pot fi urmărite și animate. 


3DAvatarGAN: Bridging Domains for Personalized Editable Avatars (3DAvatarGAN: Conectarea domeniilor pentru avatare editabile personalizate)

Rameen Abdal, Hsin-Ying Lee, Peihao Zhu, Menglei Chai, Aliaksandr Siarohin, Peter Wonka, Sergey Tulyakov

4:30 -6:30pm | #40

Această contribuție permite generarea, editarea și animarea de avataruri artistice 3D personalizate, pe seturi de date artistice. 


Affection: Learning Affective Explanations for Real-World Visual Data (Afecțiune: Învățarea explicațiilor afective pentru datele vizuale din lumea reală)

Panos Achlioptas, Maks Ovsjanikov, Leonidas Guibas, Sergey Tulyakov

4:30 -6:30PM | #240 

În această lucrare, explorăm reacțiile emoționale pe care imaginile din lumea reală tind să le inducă prin utilizarea limbajului natural ca mijloc de exprimare a raționamentului care stă la baza unui răspuns afectiv la un anumit stimul vizual. 


Miercuri, 21 iunie

Real-Time Neural Light Field on Mobile Devices (Câmpul luminos neuronal în timp real pe dispozitivele mobile)

Junli Cao, Huan Wang, Pavlo Chemerys, Vladislav Shakhrai, Ju Hu, Yun Fu, Denys Makoviichuk, Sergey Tulyakov, Jian Ren

10:30 AM -12:30 PM | #10 

În această lucrare, propunem o rețea eficientă care rulează în timp real pe dispozitivele mobile pentru redare neuronală. 


Treci pe la standul nr. 923 pentru a te întâlni cu echipa noastră, pentru a încerca Lens Studio, Spectacles și AR Mirror și pentru a afla mai multe despre oportunitățile de carieră în cadrul Snap.  

Alătură-te echipei Snap 

Angajăm cercetători, ingineri și stagiari talentați, specializați în învățarea automată, viziunea computerizată și procesarea limbajului natural. Înregistrează-te dacă dorești să fii contactat în legătură cu rolurile actuale și viitoare ale viziunii computerizate și învățării automate de la Snap sau verifică toate posturile noastre actuale cu normă întreagă la careers.snap.com

Abia așteptăm să ne întâlnim la CVPR! 

A full schedule of Snap sessions at CVPR.

Înapoi la Știri