19 giugno 2023
19 giugno 2023

Snap presenta i progressi della ricerca presso CVPR 2023

La nostra ricerca leader nel settore dell'IA generativa, della visione artificiale e della realtà aumentata plasma i prodotti di Snap e raggiunge la nostra comunità globale

Questa settimana, Questa settimana Snap parteciperà alla Computer Vision and Pattern Recognition Conference (CVPR) per mettere in luce le nostre principali ricerche e innovazioni di prodotto nell'ambito dell'IA generativa, della visione artificiale e della realtà aumentata. 

Il nostro approccio alla ricerca consiste nel trasformare idee audaci in innovazioni rivoluzionarie, per poi trasformare le tecnologie più avanzate in prodotti che la nostra comunità potrà utilizzare per esprimere la propria creatività. 

I nostri progressi nella ricerca e sviluppo sono alla base delle funzionalità di Snapchat, del nostro strumento di sviluppo AR Lens Studio, di Spectacles e anche dei nostri nuovi AR Enterprise Services e Specchio AR. 

Questi prodotti innovativi hanno permesso a Snap di diventare una delle maggiori piattaforme AR al mondo: più di 750 milioni di persone utilizzano Snapchat ogni mese, più di 300.000 creatori e sviluppatori AR hanno creato esperienze AR in Lens Studio e le aziende utilizzano i nostri annunci AR sponsorizzati e i servizi commerciali AR per ottenere migliori risultati commerciali. 


Passa a salutare Snap presso CVPR 


I membri del team Snap presenteranno quest'anno al CVPR dodici lavori, un tutorial e due demo, tra cui una che verrà evidenziata dalla conferenza. Siamo felici di aver raggiunto un tasso di accettazione del lavoro del 70% quest'anno, il che è una dimostrazione dei progressi raggiunti dal nostro team. 

We're excited to achieve a 70% paper acceptance rate this year.

Ecco le cinque sessioni Snap più importanti presso CVPR (da non perdere): 

Martedì 20 giugno

DisCoScene: campi generativi di luminosità spazialmente districati per la creazione di scene tridimensionali controllabili

Yinghao Xu, Menglei Chai, Zifan Shi, Sida Peng, Ivan Skorokhodov, Aliaksandr Siarohin, Ceyuan Yang, Yujun Shen, Hsin-Ying Lee, Bolei Zhou, Sergey Tulyakov

16:30 - 18:30 | #26 

Questo lavoro presenta DisCoScene: un modello generativo tridimensionale per la creazione di scene controllabili e di alta qualità. 


Animazione volumetrica non supervisionata 

Aliaksandr Siarohin, Willi Menapace, Ivan Skorokhodov, Kyle Olszewski, Jian Ren, Hsin-Ying Lee, Menglei Chai, Sergey Tulyakov

16:30 - 18:30 | #50

Questo lavoro propone un nuovo approccio per l'animazione tridimensionale non supervisionata di oggetti deformabili non rigidi. Il nostro metodo acquisisce la struttura e la dinamica 3D degli oggetti solo da video RGB a vista singola e può decomporli in parti semanticamente significative che possono essere tracciate e animate. 


3DAvatarGAN: collegamento di domini per avatar modificabili personalizzati

Rameen Abdal, Hsin-Ying Lee, Peihao Zhu, Menglei Chai, Aliaksandr Siarohin, Peter Wonka, Sergey Tulyakov

16:30 - 18:30 | #40

Questo contributo permette di generare, modificare e animare avatar 3D artistici personalizzati su set di dati artistici. 


Affection: apprendimento di spiegazioni affettive per dati visivi del mondo reale

Panos Achlioptas, Maks Ovsjanikov, Leonidas Guibas, Sergey Tulyakov

16:30 - 18:30 | #240 

In questo lavoro, esploriamo le reazioni emotive indotte dalle immagini del mondo reale utilizzando il linguaggio naturale come mezzo per esprimere le motivazioni alla base di una risposta affettiva a un determinato stimolo visivo. 


Mercoledì 21 giugno

Campo luminoso neurale in tempo reale su dispositivi mobili

Junli Cao, Huan Wang, Pavlo Chemerys, Vladislav Shakhrai, Ju Hu, Yun Fu, Denys Makoviichuk, Sergey Tulyakov, Jian Ren

10:30 - 12:30 | #10 

In questo lavoro proponiamo una rete efficiente che funziona in tempo reale su dispositivi mobili per il rendering neurale. 


Passa allo stand #923 per incontrare il nostro team, provare Lens Studio, Spectacles, il nostro Specchio AR e per saperne di più sulle opportunità professionali in Snap.  

Unisciti al team Snap 

Stiamo assumendo ricercatori, ingegneri e stagisti di talento specializzati in machine learning, visione artificiale ed elaborazione del linguaggio naturale. Registrati se vuoi essere contattato per conoscere le posizioni attuali e future in Snap nel campo della visione artificiale e dell'apprendimento automatico, oppure dai un'occhiata a tutte le nostre attuali posizioni a tempo pieno su careers.snap.com

Non vediamo l'ora di incontrarti presso CVPR! 

A full schedule of Snap sessions at CVPR.

Torna alle Notizie