19 czerwca 2023
19 czerwca 2023

Snap przedstawia postępy w badaniach na konferencji CVPR 2023

Nasze przełomowe badania w zakresie generatywnej sztucznej inteligencji, komputerowego przetwarzania obrazu i rzeczywistości rozszerzonej kształtują produkty Snap i docierają do naszej społeczności na całym świecie

W tym tygodniu Snap wybiera się na konferencję Computer Vision and Pattern Recognition (CVPR) poświęconą komputerowemu przetwarzaniu obrazu i rozpoznawaniu wzorców, aby zaprezentować nasze przełomowe badania oraz innowacje produktowe w zakresie generatywnej sztucznej inteligencji, komputerowego przetwarzania obrazu i rzeczywistości rozszerzonej. 

W Snap prowadzimy badania, aby przekształcać śmiałe pomysły w przełomowe innowacje, a następnie wykorzystywać najnowsze technologie w produktach, które umożliwiają naszej społeczności kreatywne działanie. 

Postępy w zakresie badań i rozwoju kształtują funkcje Snap w takich produktach jak Snapchat, nasze narzędzie do tworzenia rzeczywistości rozszerzonej Lens Studio, Spectacles oraz nowe AR Enterprise Services i AR Mirrors. 

Dzięki tym innowacyjnym produktom Snap jest jedną z największych platform rzeczywistości rozszerzonej na świecie: co miesiąc ze Snapchata korzysta ponad 750 milionów osób, ponad 300 000 twórców i programistów AR opracowało środowiska AR w Lens Studio, a firmy korzystają ze sponsorowanych reklam AR i usług AR Enterprise Services, aby osiągać lepsze wyniki biznesowe. 


Przywitaj się ze Snapem na CVPR 


W tym roku podczas konferencji CVPR członkowie zespołu Snap przedstawią dwanaście artykułów, jeden samouczek i dwie demonstracje, w tym jedną wyróżnioną. Udało się nam w tym roku uzyskać wskaźnik akceptacji artykułów na poziomie 70%, co jest odzwierciedleniem postępów naszego zespołu. 

We're excited to achieve a 70% paper acceptance rate this year.

Oto pięć najważniejszych sesji Snapa na CVPR (których nie możesz przegapić!): 

Wtorek, 20 czerwca

DisCoScene: rozdzielone w przestrzeni generatywne pola promieniowania na potrzeby kontrolowanej syntezy scen 3D (Spatially Disentangled Generative Radiance Fields for Controllable 3D-aware Scene Synthesis)

Yinghao Xu, Menglei Chai, Zifan Shi, Sida Peng, Ivan Skorokhodov, Aliaksandr Siarohin, Ceyuan Yang, Yujun Shen, Hsin-Ying Lee, Bolei Zhou, Sergey Tulyakov

16:30-18:30 | #26 

To opracowanie przedstawia DisCoScene: generatywny model 3D na potrzeby kontrolowanej syntezy scen wysokiej jakości. 


Nienadzorowana animacja wolumetryczna (Unsupervised Volumetric Animation) 

Aliaksandr Siarohin, Willi Menapace, Ivan Skorokhodov, Kyle Olszewski, Jian Ren, Hsin-Ying Lee, Menglei Chai, Sergey Tulyakov

16:30-18:30 | #50

W tym opracowaniu przedstawiono nowatorskie podejście do nienadzorowanej animacji 3D odkształcalnych obiektów niesztywnych. Nasza metoda poznaje strukturę 3D i dynamikę obiektów wyłącznie z filmów RGB z pojedynczą perspektywą i może je rozkładać na semantycznie znaczące elementy, które można śledzić i animować. 


3DAvatarGAN: mostkowanie domen na potrzeby spersonalizowanych awatarów z możliwością edycji (Bridging Domains for Personalized Editable Avatars)

Rameen Abdal, Hsin-Ying Lee, Peihao Zhu, Menglei Chai, Aliaksandr Siarohin, Peter Wonka, Sergey Tulyakov

16:30-18:30 | #40

To opracowanie przedstawia możliwość generowania, edycji i animacji spersonalizowanych awatarów 3D z wykorzystaniem artystycznych zestawów danych. 


Uczucia: określane emocjonalnych znaczeń rzeczywistych danych wizualnych (Affection: Learning Affective Explanations for Real-World Visual Data)

Panos Achlioptas, Maks Ovsjanikov, Leonidas Guibas, Sergey Tulyakov

16:30-18:30 | #240 

W tej pracy badamy reakcje emocjonalne, które zwykle wywołują obrazy rzeczywistego świata, wykorzystując język naturalny jako środek do wyrażania przyczyny określonego uczucia w odpowiedzi na dany bodziec wizualny. 


Środa, 21 czerwca

Neuronowe pole świetlne w czasie rzeczywistym na urządzeniach mobilnych (Real-Time Neural Light Field on Mobile Devices)

Junli Cao, Huan Wang, Pavlo Chemerys, Vladislav Shakhrai, Ju Hu, Yun Fu, Denys Makoviichuk, Sergey Tulyakov, Jian Ren

10:30-12:30 | #10 

W tej pracy opisujemy wydajną sieć na potrzeby renderowania neuronowego, która działa w czasie rzeczywistym na urządzeniach mobilnych. 


Zatrzymaj się przy stanowisku 923, aby poznać nasz zespół, wypróbować Lens Studio, Spectacles i AR Mirror, a także dowiedzieć się więcej o możliwościach rozwoju zawodowego w firmie Snap.  

Dołącz do zespołu Snap 

Zatrudniamy uzdolnionych specjalistów, inżynierów i stażystów zajmujących się dziedzinami uczenia maszynowego, komputerowego przetwarzania obrazu i przetwarzania języka naturalnego. Zarejestruj się, jeśli chcesz otrzymywać informacje na temat aktualnych i przyszłych ofert pracy w dziedzinie komputerowego przetwarzania obrazu i uczenia maszynowego w firmie Snap lub sprawdź wszystkie nasze aktualne oferty pracy w pełnym wymiarze godzin na stronie careers.snap.com

Z przyjemnością spotkamy się z Tobą na CVPR! 

A full schedule of Snap sessions at CVPR.

Powrót do Aktualności