19 tháng 6, 2023
19 tháng 6, 2023

Snap giới thiệu những tiến bộ về nghiên cứu tại Hội nghị Thị giác Máy tính và Nhận dạng Mẫu (CVPR) 2023

Những nghiên cứu hàng đầu của chúng tôi về AI Sáng Tạo (Generative AI), thị giác máy tính (computer vision) và thực tế tăng cường (AR) đã giúp Snap định hình các sản phẩm cũng như tiếp cận được cộng đồng trên toàn cầu

Tuần này, Snap sẽ tham dự Hội nghị Thị giác Máy tính và Nhận dạng Mẫu (CVPR) để giới thiệu nghiên cứu hàng đầu lẫn sáng tạo sản phẩm của chúng tôi về AI sáng tạo, thị giác máy tính và thực tế tăng cường. 

Tại Snap, phương pháp nghiên cứu của chúng tôi là biến những ý tưởng táo bạo thành những cải tiến đột phá, và sau đó biến những công nghệ tiên tiến nhất thành những sản phẩm mà cộng đồng của chúng tôi có thể sử dụng để thể hiện sự sáng tạo của họ. 

Những tiến bộ trong Nghiên cứu và Phát triển của chúng tôi định hình các tính năng của Snap trên Snapchat, Lens Studio do công cụ AR phát triển, Kính Spectacles, và thậm chí là cả các Dịch vụ Doanh nghiệp AR và Gương AR mới của chúng tôi. 

Những sản phẩm sáng tạo này đã đưa Snap trở thành một trong những nền tảng AR lớn nhất trên thế giới: Hơn 750 triệu người sử dụng Snapchat mỗi tháng, hơn 300.000 nhà sáng tạo và nhà phát triển AR đã xây dựng các trải nghiệm AR trong Lens Studio, đồng thời các doanh nghiệp cũng sử dụng quảng cáo AR được tài trợ cùng với các Dịch vụ Doanh nghiệp AR của chúng tôi để đạt được kết quả kinh doanh tốt hơn. 


Hãy chào đón Snap tại CVPR 


Các thành viên của Snap sẽ trình bày mười hai báo bài nghiên cứu, một bài hướng dẫn và hai bản dùng thử tại hội nghị CVPR năm nay, bao gồm một bài được hội nghị nhấn mạnh. Chúng tôi rất vui khi năm nay đạt được tỷ lệ chấp nhận là 70% cho các nghiên cứu, và đây chính là minh chứng cho những tiến bộ mà nhóm chúng tôi đã thực hiện được. 

We're excited to achieve a 70% paper acceptance rate this year.

Đây là 5 mục đứng đầu của Snap tại hội nghị CVPR (mà bạn không muốn bỏ lỡ): 

Thứ Ba, ngày 20 tháng 6

DisCoScene: Các trường bức xạ tạo sinh được phân tách theo không gian để tạo ra bản tổng hợp cảnh có thể kiểm soát bằng cách nhận biết 3D

Yinghao Xu, Menglei Chai, Zifan Shi, Sida Peng, Ivan Skorokhodov, Aliaksandr Siarohin, Ceyuan Yang, Yujun Shen, Hsin-Ying Lee, Bolei Zhou, Sergey Tulyakov

16:30 - 18:30 | #26 

Nghiên cứu này giới thiệu DisCoScene: một mô hình tạo sinh nhận biết 3D để cho ra bản tổng hợp cảnh chất lượng cao và có thể kiểm soát được. 


Hoạt hình ba chiều không được giám sát 

Aliaksandr Siarohin, Willi Menapace, Ivan Skorokhodov, Kyle Olszewski, Jian Ren, Hsin-Ying Lee, Menglei Chai, Sergey Tulyakov

16:30 -18:30 | #50

Bài báo nghiên cứu này đề xuất một cách tiếp cận mới cho hoạt hình 3D không giám sát của các vật thể biến dạng linh hoạt. Phương pháp của chúng tôi là tìm hiểu cấu trúc 3D và động lực của các đối tượng thông qua những video RGB ở chế độ xem hợp nhất, sau đó tách chúng thành các phần có ý nghĩa về mặt ngôn từ mà có thể theo dõi và tạo chuyển động được. 


3DAvatarGAN: Kết nối tên miền để tạo ra hình đại diện có thể chỉnh sửa theo cá nhân hóa

Rameen Abdal, Hsin-Ying Lee, Peihao Zhu, Menglei Chai, Aliaksandr Siarohin, Peter Wonka, Sergey Tulyakov

16:30 -18:30 | #40

Đóng góp này cho phép tạo, chỉnh sửa và thêm chuyển động cho các hình đại diện 3D nghệ thuật được cá nhân hóa trên bộ dữ liệu nghệ thuật. 


Affection Học giải thích có cảm xúc đối với dữ liệu trực quan trong thế giới thực

Panos Achlioptas, Maks Ovsjanikov, Leonidas Guibas, Sergey Tulyakov

16:30 - 18:30 | #240 

Trong nghiên cứu này, chúng tôi khám phá các phản ứng có cảm xúc mà những hình ảnh trong thế giới thực có xu hướng đem lại, bằng cách sử dụng ngôn ngữ tự nhiên làm phương tiện để đưa ra lý do đằng sau phản ứng có cảm xúc đối với một kích thích thị giác nhất định. 


Thứ Tư, ngày 21 tháng 6

Trường ánh sáng nơ-ron trong thời gian thực trên thiết bị di động

Junli Cao, Huan Wang, Pavlo Chemerys, Vladislav Shakhrai, Ju Hu, Yun Fu, Denys Makoviichuk, Sergey Tulyakov, Jian Ren

10:30 - 12:30 Sáng | #10 

Trong nghiên cứu này, chúng tôi đề xuất một mạng lưới hiệu quả có thể hoạt động trong thời gian thực trên thiết bị di động để kết xuất nơ-ron. 


Hãy ghé gian hàng #923 để gặp gỡ đội ngũ của chúng tôi, thử Lens Studio, Kính Spectacles và Gương AR, cũng như tìm hiểu thêm về cơ hội nghề nghiệp tại Snap.  

Tham gia đội ngũ Snap 

Chúng tôi đang tuyển dụng các nhà nghiên cứu, kỹ sư và thực tập sinh tài năng chuyên về học máy, thị giác máy tính và xử lý ngôn ngữ tự nhiên. Hãy đăng ký nếu bạn muốn được liên hệ cho các vị trí về thị giác máy tính và học máy hiện có hoặc sẽ có tại Snap, hoặc xem tất cả các vị trí toàn thời gian đang tuyển của chúng tôi tại careers.snap.com

Chúng tôi rất háo hức được gặp bạn tại hội nghị CVPR! 

A full schedule of Snap sessions at CVPR.

Quay lại Tin tức