19 juin 2023
19 juin 2023

Snap présente les avancées de l'étude à la CVPR 2023

Notre étude de pointe dans les domaines de l’IA générative, de la vision par ordinateur et la réalité augmentée façonne les produits de Snap et touche notre communauté mondiale

Cette semaine, Snap se rend à la Computer Vision and Pattern Recognition Conference (CVPR) pour mettre en avant ses études de pointe et ses produits innovants dans les domaines de l’IA générative, de la vision par ordinateur et de la réalité augmentée. 

Chez Snap, notre approche de l'étude consiste à transformer des idées audacieuses en innovations révolutionnaires, puis à transformer des technologies de pointe en produits que notre communauté peut utiliser pour exprimer sa créativité. 

Nos avancées en matière de R&D façonnent les fonctionnalités de Snapchat, notre outil de développement de RA Lens Studio, Spectacles, et même nos nouveaux AR Enterprise Services et AR Mirrors. 

Ces produits innovants ont permis à Snap de devenir l’une des plus grandes plateformes de RA au monde : plus de 750 millions de personnes utilisent Snapchat chaque mois, plus de 300 000 créateurs et développeurs de RA ont créé des expériences de RA dans Lens Studio, et les entreprises utilisent nos publicités en RA sponsorisées et AR Enterprise Services pour obtenir de meilleurs résultats commerciaux. 


Dites bonjour à Snap à la CVPR 


Les membres de l’équipe Snap présenteront douze articles, un tutoriel et deux démonstrations à la CVPR cette année, dont l'un sera mis en avant par la conférence. Nous sommes ravis d’avoir atteint un taux d’acceptation de l'article de 70 % cette année, ce qui témoigne des progrès réalisés par notre équipe. 

We're excited to achieve a 70% paper acceptance rate this year.

Voici les cinq meilleures sessions Snap de la CVPR (à ne pas manquer !) : 

Mardi 20 juin

DisCoScene: Spatially Disentangled Generative Radiance Fields for Controllable 3D-aware Scene Synthesis (DisCoScene : Champs de radiance génératifs spatialement désenchevêtrés pour une synthèse de scène contrôlable et consciente de la 3D)

Yinghao Xu, Menglei Chai, Zifan Shi, Sida Peng, Ivan Skorokhodov, Aliaksandr Siarohin, Ceyuan Yang, Yujun Shen, Hsin-Ying Lee, Bolei Zhou, Sergey Tulyakov

16h30 - 18h30 | #26 

Ce document présente DisCoScene: a 3D-aware generative model for high-quality and controllable scene synthesis (DisCoScene : Champs de radiance génératifs spatialement désenchevêtrés pour une synthèse de scène contrôlable et consciente de la 3D). 


Unsupervised Volumetric Animation (Animation volumétrique non supervisée)

Aliaksandr Siarohin, Willi Menapace, Ivan Skorokhodov, Kyle Olszewski, Jian Ren, Hsin-Ying Lee, Menglei Chai, Sergey Tulyakov

16h30 -18h30 | #50

Cet article propose une nouvelle approche pour l’animation 3D non supervisée d’objets déformables non rigides. Notre méthode apprend la structure 3D et la dynamique des objets uniquement à partir de vidéos RVB à vue unique, et peut les décomposer en parties sémantiquement significatives qui peuvent être suivies et animées. 


3DAvatarGAN: Bridging Domains for Personalized Editable Avatars (3DAvatarGAN : Créer des ponts entre les domaines pour des avatars personnalisés et modifiables)

Rameen Abdal, Hsin-Ying Lee, Peihao Zhu, Menglei Chai, Aliaksandr Siarohin, Peter Wonka, Sergey Tulyakov

16h30 -18h30 | #40

Cette contribution permet de générer, d'éditer et d'animer des avatars artistiques personnalisés en 3D sur des ensembles de données artistiques. 


Affection: Learning Affective Explanations for Real-World Visual Data (Affection : Apprendre des explications affectives pour des données visuelles du monde réel)

Panos Achlioptas, Maks Ovsjanikov, Leonidas Guibas, Sergey Tulyakov

16h30 -18h30 | #240 

Dans ce document, nous explorons les réactions émotionnelles que les images du monde réel tendent à induire en utilisant le langage naturel comme moyen d'exprimer la raison d’être d'une réponse affective à un stimulus visuel donné. 


Mercredi 21 juin

Real-Time Neural Light Field on Mobile Devices (Champ lumineux neuronal en temps réel sur appareils mobiles)

Junli Cao, Huan Wang, Pavlo Chemerys, Vladislav Shakhrai, Ju Hu, Yun Fu, Denys Makoviichuk, Sergey Tulyakov, Jian Ren

10h30 -12h30 | #10 

Dans ce document, nous proposons un réseau efficace qui fonctionne en temps réel sur les appareils mobiles pour le rendu neuronal. 


Passez au stand n°923 pour rencontrer notre équipe, essayer Lens Studio, Spectacles et notre AR Mirror, et en savoir plus sur les opportunités de carrière chez Snap.  

Rejoignez l'équipe Snap 

Nous recrutons des chercheurs, des ingénieurs et des stagiaires talentueux spécialisés dans l’apprentissage automatique, la vision par ordinateur et le traitement du langage naturel. Inscrivez-vous si vous souhaitez être contactés au sujet des postes actuels et futurs dans le domaine de la vision par ordinateur et de l'apprentissage automatique chez Snap, ou consultez toutes nos offres d'emploi à temps plein actuelles sur careers.snap.com

Nous sommes impatients de vous retrouver à la CVPR ! 

A full schedule of Snap sessions at CVPR.

Retour à l'actualité