19. Juni 2023
19. Juni 2023

Snap präsentiert Forschungsfortschritte auf der CVPR 2023

Unsere führende Forschung in den Bereichen generative KI, Computer Vision und Augmented Reality prägt die Produkte von Snap und erreicht unsere globale Community

Diese Woche besucht Snap die Computer Vision and Pattern Recognition Conference (CVPR), um auf unsere führende Forschung und Produktinnovation in den Bereichen generative KI, Computer Vision und Augmented Reality aufmerksam zu machen. 

Unser Forschungsansatz bei Snap besteht darin, kühne Ideen in bahnbrechende Innovationen umzuwandeln und dann modernste Technologien in Produkte zu verwandeln, mit denen unsere Community ihre Kreativität zum Ausdruck bringen kann. 

Unsere Fortschritte in Forschung und Entwicklung prägen die Funktionen von Snapchat, unser AR-Entwicklungstool Lens Studio, Spectacles und sogar unsere neuen AR Enterprise Services und AR Mirrors. 

Diese innovativen Produkte haben Snap zu einer der größten AR-Plattformen der Welt gemacht: Mehr als 750 Millionen Menschen nutzen Snapchat jeden Monat, mehr als 300.000 AR-Kreatoren und -Entwickler haben AR-Erfahrungen in Lens Studio entwickelt, und Unternehmen nutzen unsere gesponserten AR-Anzeigen Anzeigen und AR Enterprise Services, um bessere Geschäftsergebnisse zu erzielen. 


Sag Hallo zu Snap auf der CVPR 


Snap-Teammitglieder präsentieren in diesem Jahr auf der CVPR zwölf Abhandlungen, ein Tutorial und zwei Demos, von denen eine auf der Konferenz besonders hervorgehoben wird. Wir freuen uns, dass wir in diesem Jahr eine Annahmequote von 70 % der Abhandlungen erreicht haben, was ein Beweis für die Fortschritte unseres Teams ist. 

We're excited to achieve a 70% paper acceptance rate this year.

Hier sind die fünf wichtigsten Snap Sitzungen auf der CVPR (die du auf keinen Fall verpassen solltest!): 

Dienstag, 20. Juni

DisCoScene: Räumlich entwirrte generative Strahlungsfelder für eine kontrollierbare 3D-fähige Szenensynthese

Yinghao Xu, Menglei Chai, Zifan Shi, Sida Peng, Ivan Skorokhodov, Aliaksandr Siarohin, Ceyuan Yang, Yujun Shen, Hsin-Ying Lee, Bolei Zhou, Sergey Tulyakov

16:30 – 18:30 Uhr | Nr. 26 

Diese Arbeit präsentiert DisCoScene: ein 3D-fähiges generatives Modell für hochwertige und kontrollierbare Szenensynthese. 


Nicht überwachte volumetrische Animation 

Aliaksandr Siarohin, Willi Menapace, Ivan Skorokhodov, Kyle Olszewski, Jian Ren, Hsin-Ying Lee, Menglei Chai, Sergey Tulyakov

16:30 bis 18:30 Uhr | Nr. 50

Diese Abhandlung schlägt einen neuartigen Ansatz für die nicht überwachte 3D-Animation von nicht starren verformbaren Objekten vor. Unsere Methode lernt die 3D-Struktur und -Dynamik von Objekten ausschließlich aus RGB-Videos in Einzelansicht und kann sie in semantisch sinnvolle Teile zerlegen, die nachverfolgt und animiert werden können. 


3DAvatarGAN: Überbrückung von Domänen für personalisierte, editierbare Avatare

Rameen Abdal, Hsin-Ying Lee, Peihao Zhu, Menglei Chai, Aliaksandr Siarohin, Peter Wonka, Sergey Tulyakov

16:30 bis 18:30 Uhr | Nr. 40

Dieser Beitrag ermöglicht die Generierung, Bearbeitung und Animation von personalisierten künstlerischen 3D-Avataren auf künstlerischen Datensätzen. 


Neigung: Lernen von affektiven Erklärungen für visuelle Daten aus der realen Welt

Panos Achlioptas, Maks Ovsjanikov, Leonidas Guibas, Sergey Tulyakov

16:30 bis 18:30 Uhr | Nr. 240 

In dieser Arbeit erforschen wir die emotionalen Reaktionen, die Bilder in der realen Welt auslösen, indem wir natürliche Sprache als Medium verwenden, um die Gründe für eine affektive Reaktion auf einen bestimmten visuellen Reiz auszudrücken. 


Mittwoch, 21. Juni

Neuronales Lichtfeld in Echtzeit auf Mobilgeräten

Junli Cao, Huan Wang, Pavlo Chemerys, Vladislav Shakhrai, Ju Hu, Yun Fu, Denys Makoviichuk, Sergey Tulyakov, Jian Ren

10:30 bis 12:30 Uhr | Nr. 10 

In dieser Arbeit schlagen wir ein effizientes Netzwerk vor, das auf Mobilgeräten in Echtzeit für neuronales Rendering ausgeführt wird. 


Komm am Stand Nr. 923 vorbei, um unser Team kennenzulernen, Lens Studio, Spectacles und unseren AR Mirror auszuprobieren und mehr über Karrieremöglichkeiten bei Snap zu erfahren.  

Werde Teil des Snap Teams 

Wir stellen talentierte Forscher, Ingenieure und Praktikanten ein, die sich auf maschinelles Lernen, Computer Vision und die Verarbeitung natürlicher Sprache spezialisiert haben. Registriere dich, wenn du über aktuelle und zukünftige Stellen im Bereich Computer Vision und maschinelles Lernen bei Snap informiert werden möchtest. Oder schau dir alle unsere aktuellen Vollzeitstellen unter careers.snap.com an.

Wir können es kaum erwarten, dich auf der CVPR zu treffen! 

A full schedule of Snap sessions at CVPR.

Zurück zu News