19 de junio de 2023
19 de junio de 2023

Snap presenta avances de investigación en la conferencia CVPR 2023

Nuestra investigación líder en IA generativa, visión por computadora y realidad aumentada define los productos de Snap y llega a nuestra comunidad global

Snap asistirá esta semana a la Conferencia de Visión por Computador y Reconocimiento de Patrones (CVPR, por sus siglas en inglés) para destacar nuestra investigación líder y la innovación de productos en IA generativa, visión por computadora y realidad aumentada. 

En Snap, nuestro enfoque de investigación es transformar las ideas audaces en innovaciones revolucionarias y, después, convertir las tecnologías más avanzadas en productos que nuestra comunidad pueda usar para expresar su creatividad. 

Nuestros avances de I+D definen las funciones de Snap en Snapchat, nuestra herramienta de desarrollo de RA Lens Studio, Spectacles e incluso nuestros nuevos servicios empresariales de RA y espejo de RA. 

Estos innovadores productos han convertido a Snap en una de las plataformas de RA más grandes del mundo: más de 750 millones de personas usan Snapchat cada mes, más de 300 000 creadores y desarrolladores de RA han creado experiencias de RA en Lens Studio, y las empresas usan nuestros anuncios de RA patrocinados y los servicios empresariales de RA para obtener mejores resultados comerciales.


Saluda a Snap en la conferencia CVPR 


Los miembros del equipo de Snap presentarán doce documentos, un tutorial y dos demostraciones en la conferencia CVPR de este año, incluido evento destacado por la conferencia. Nos complace alcanzar una tasa de aceptación de ponencias del 70 % este año, lo que demuestra los avances realizados por nuestro equipo. 

We're excited to achieve a 70% paper acceptance rate this year.

Aquí hay cinco sesiones de Snap principales en la conferencia CVPR (¡no te las pierdas!): 

Martes 20 de junio

DisCoScene: Campos de radiación generativos espacialmente desenredados para una síntesis de escenas controlable en 3D

Yinghao Xu, Menglei Chai, Zifan Shi, Sida Peng, Ivan Skorokhodov, Aliaksandr Siarohin, Ceyuan Yang, Yujun Shen, Hsin-Ying Lee, Bolei Zhou, Sergey Tulyakov

4:30 - 6:30 p. m. | #26 

Este trabajo presenta DisCoScene: un modelo generativo 3D para una síntesis de escenas controlable y de alta calidad. 


Animación volumétrica sin supervisión 

Aliaksandr Siarohin, Willi Menapace, Ivan Skorokhodov, Kyle Olszewski, Jian Ren, Hsin-Ying Lee, Menglei Chai, Sergey Tulyakov

4:30 -6:30 p. m. | #50

Este artículo propone un enfoque novedoso para la animación 3D sin supervisión de objetos deformables no rígidos. Nuestro método aprende la estructura 3D y la dinámica de los objetos únicamente a partir de videos RGB de una sola vista y puede descomponerlos en partes semánticamente significativas que se pueden rastrear y animar. 


3DAvatarGAN: Creación de puentes de dominios para avatares editables personalizados

Rameen Abdal, Hsin-Ying Lee, Peihao Zhu, Menglei Chai, Aliaksandr Siarohin, Peter Wonka, Sergey Tulyakov

4:30 -6:30 p. m. | #40

Esta contribución permite la generación, edición y animación de avatares artísticos 3D personalizados en conjuntos de datos artísticos. 


Afecto: Aprendizaje de explicaciones afectivas para datos visuales del mundo real

Panos Achlioptas, Maks Ovsjanikov, Leonidas Guibas, Sergey Tulyakov

4:30 -6:30 p. m. | #240 

En este trabajo exploramos las reacciones emocionales que las imágenes del mundo real tienden a inducir; para ese fin usamos el lenguaje natural como medio para expresar la razón detrás de una respuesta afectiva a un estímulo visual determinado. 


Miércoles 21 de junio

Campo de luz neuronal en tiempo real en dispositivos móviles

Junli Cao, Huan Wang, Pavlo Chemerys, Vladislav Shakhrai, Ju Hu, Yun Fu, Denys Makoviichuk, Sergey Tulyakov, Jian Ren

10:30 a. m. -12:30 p. m. | #10 

En este trabajo, proponemos una red eficiente que se ejecuta en tiempo real en dispositivos móviles para el renderizado neuronal. 


Visítanos en el stand 923 para conocer a nuestro equipo, prueba Lens Studio, Spectacles y nuestro espejo de RA, y obtén más información sobre las oportunidades laborales en Snap.  

Únete al equipo Snap 

Estamos contratando a investigadores, ingenieros y pasantes talentosos que se especialicen en aprendizaje automático, visión por computadora y procesamiento del lenguaje natural. Regístrate si quieres que nos comuniquemos contigo para hablar sobre los roles actuales y futuros de la visión por computadora y el aprendizaje automático en Snap, o consulta todas nuestras vacantes actuales a tiempo completo en careers.snap.com.

¡Tenemos muchas granas de conocerte en la conferencia CVPR!

A full schedule of Snap sessions at CVPR.

Regresar a las noticias