19 de junio de 2023
19 de junio de 2023

Snap muestra los avances de la investigación en CVPR 2023

Nuestra investigación líder en IA generativa, visión artificial y realidad aumentada da forma a los productos de Snap y llega a nuestra comunidad global

Esta semana, Snap se dirige a la Conferencia de Visión por Computadora y Reconocimiento de Patrones (CVPR, por sus siglas en inglés) para destacar su investigación líder e innovación de productos a través de la IA generativa, la visión artificial y la realidad aumentada. 

En Snap, nuestro abordaje a la investigación es transformar ideas audaces en innovaciones revolucionarias y, luego, convertir tecnologías de vanguardia en productos que nuestra comunidad pueda usar para expresar su creatividad. 

Nuestros avances de I+D dan forma a las características de Snap en Snapchat, nuestra herramienta de desarrollo de RA Lens Studio, Spectacles e incluso nuestros nuevos Servicios empresariales de RA y Espejos de RA. 

Estos productos innovadores han llevado a Snap a convertirse en una de las plataformas de RA más grandes del mundo: Más de 750 millones de personas usan Snapchat cada mes, más de 300,000 creadores y desarrolladores de RA han creado experiencias de RA en Lens Studio, y las empresas usan nuestros anuncios de RA patrocinados y los Servicios empresariales de RA para impulsar mejores resultados comerciales. 


Saluda a Snap en CVPR 


Les miembros del equipo de Snap presentarán doce documentos, un tutorial y dos demostraciones en CVPR este año, incluido uno destacado por la conferencia. Nos entusiasma haber alcanzado una tasa de aceptación de papel del 70 % este año, lo cual es un testimonio de los avances realizados por nuestro equipo. 

We're excited to achieve a 70% paper acceptance rate this year.

Aquí hay cinco sesiones de Snap principales en CVPR (¡no te las querrás perder!): 

Martes 20 de junio

DisCoScene: campos de radiación generativos espacialmente desenredados para una síntesis de escenas controlable en 3D

Yinghao Xu, Menglei Chai, Zifan Shi, Sida Peng, Ivan Skorokhodov, Aliaksandr Siarohin, Ceyuan Yang, Yujun Shen, Hsin-Ying Lee, Bolei Zhou, Sergey Tulyakov

4:30 - 6:30 p. m. | # 26 

Este trabajo presenta DisCoScene: un modelo generativo consciente de la 3D para una síntesis de escenas controlable y de alta calidad. 


Animación volumétrica sin supervisión 

Aliaksandr Siarohin, Willi Menapace, Ivan Skorokhodov, Kyle Olszewski, Jian Ren, Hsin-Ying Lee, Menglei Chai, Sergey Tulyakov

4:30 -6:30 p. m. | # 50

Este documento propone un enfoque novedoso para la animación en 3D no supervisada de objetos deformables no rígidos. Nuestro método aprende la estructura de 3D y la dinámica de los objetos únicamente a partir de videos RGB de una sola vista, y puede descomponerlos en partes semánticamente significativas que se pueden rastrear y animar. 


3DAvatarGAN: Creación de puentes de dominios para avatares personalizados y editables

Rameen Abdal, Hsin-Ying Lee, Peihao Zhu, Menglei Chai, Aliaksandr Siarohin, Peter Wonka, Sergey Tulyakov

4:30 -6:30 p. m. | # 40

Esta contribución permite la generación, edición y animación de avatares artísticos 3D personalizados en conjuntos de datos artísticos. 


Afecto: Aprendiendo explicaciones afectivas para datos visuales del mundo real

Panos Achlioptas, Maks Ovsjanikov, Leonidas Guibas, Sergey Tulyakov

4:30 -6:30 PM | # 240 

En este trabajo, exploramos las reacciones emocionales que las imágenes del mundo real tienden a inducir al usar el lenguaje natural como medio para expresar la razón detrás de una respuesta afectiva a un estímulo visual determinado. 


Miércoles 21 de junio

Campo de luz neuronal en tiempo real en dispositivos móviles

Junli Cao, Huan Wang, Pavlo Chemerys, Vladislav Shakhrai, Ju Hu, Yun Fu, Denys Makoviichuk, Sergey Tulyakov, Jian Ren

10:30 a. m. - 12:30 p. m. | # 10 

En esta pieza, proponemos una red eficiente que se ejecuta en tiempo real en dispositivos móviles para la representación neuronal. 


Pasa por el puesto # 923 para conocer a nuestro equipo y probar Lens Studio, Spectacles y nuestro AR Mirror, al igual que para obtener más información sobre las oportunidades profesionales en Snap.  

Únete al equipo de Snap 

Estamos contratando a personas que trabajen en investigación y en ingeniería, al igual que a pasantes que se especialicen en aprendizaje automático, visión artificial y procesamiento del lenguaje natural. Regístrate si te gustaría que te contactaran para obtener más información sobre roles presentes y futuros de visión artificial y aprendizaje automático en Snap, o consulta todas nuestras vacantes actuales a tiempo completo en careers.snap.com

¡Esperamos entusiasmadamente conocerte en CVPR! 

A full schedule of Snap sessions at CVPR.

Volver a las noticias