19 de junio de 2023
19 de junio de 2023

Snap presenta sus avances en investigación en CVPR 2023

Nuestra investigación líder en IA generativa, visión por ordenador y realidad aumentada da forma a los productos de Snap y llega a nuestra comunidad global

Esta semana, Snap se dirige a la Conferencia de Visión por Computador y Reconocimiento de Patrones (CVPR) para presentar nuestra investigación líder y la innovación de productos a través de la IA generativa, la visión por ordenador y la realidad aumentada. 

En Snap, nuestro enfoque de la investigación consiste en transformar ideas audaces en innovaciones revolucionarias y luego convertir las tecnologías de vanguardia en productos que nuestra comunidad pueda utilizar para expresar su creatividad. 

Nuestros avances en I+D dan forma a las funciones de Snap en Snapchat, nuestra herramienta de desarrollo de realidad aumentada Lens Studio, Spectacles e incluso nuestros nuevos servicios empresariales de realidad aumentada y Espejos de realidad aumentada. 

Estos productos innovadores han llevado a Snap a convertirse en una de las mayores plataformas de realidad aumentada del mundo: más de 750 millones de personas utilizan Snapchat cada mes, más de 300 000 creadores y desarrolladores de realidad aumentada han creado experiencias de realidad aumentada en Lens Studio, y las empresas utilizan nuestros anuncios de realidad aumentada patrocinados y los servicios empresariales de realidad aumentada para obtener mejores resultados empresariales. 


Saluda a Snap en CVPR 


Los miembros del equipo de Snap presentarán doce artículos, un tutorial y dos demos en CVPR este año, incluida una destacada por la conferencia. Estamos muy contentos de haber alcanzado este año una tasa de aceptación de los artículos del 70 %, lo que demuestra los avances realizados por nuestro equipo. 

We're excited to achieve a 70% paper acceptance rate this year.

Estas son las cinco sesiones de Snap más importantes de CVPR (¡que no querrás perderte!): 

Martes, 20 de junio

DisCoScene: Campos de irradiación generativos espacialmente desenmarañados para la síntesis de escenas tridimensionales

Yinghao Xu, Menglei Chai, Zifan Shi, Sida Peng, Ivan Skorokhodov, Aliaksandr Siarohin, Ceyuan Yang, Yujun Shen, Hsin-Ying Lee, Bolei Zhou, Sergey Tulyakov

14:30 - 18:30 | #26 

Este trabajo presenta DisCoScene: un modelo generativo 3D para una síntesis de escenas de alta calidad y controlable. 


Animación volumétrica sin supervisión 

Aliaksandr Siarohin, Willi Menapace, Ivan Skorokhodov, Kyle Olszewski, Jian Ren, Hsin-Ying Lee, Menglei Chai, Sergey Tulyakov

16:30 -18:30 | #50

Este artículo propone un enfoque novedoso para la animación 3D sin supervisión de objetos deformables no rígidos. Nuestro método aprende la estructura 3D y la dinámica de los objetos únicamente a partir de vídeos RGB de una sola imagen, y puede descomponerlos en partes semánticamente significativas que se pueden seguir y animar. 


3DAvatarGAN: Creación de puentes de dominios para avatares personalizados editables

Rameen Abdal, Hsin-Ying Lee, Peihao Zhu, Menglei Chai, Aliaksandr Siarohin, Peter Wonka, Sergey Tulyakov

16:30 - 18:30 | #40

Esta contribución permite generar, editar y animar avatares artísticos 3D personalizados en conjuntos de datos artísticos. 


Affection: Aprendizaje de explicaciones afectivas para datos visuales del mundo real

Panos Achlioptas, Maks Ovsjanikov, Leonidas Guibas, Sergey Tulyakov

16:30 - 18:30 | #240 

En este trabajo, exploramos las reacciones emocionales que suelen inducir las imágenes del mundo real utilizando el lenguaje natural como medio para expresar la lógica que subyace a una respuesta afectiva ante un determinado estímulo visual. 


Miércoles, 21 de junio

Campo de luz neuronal en tiempo real en dispositivos móviles

Junli Cao, Huan Wang, Pavlo Chemerys, Vladislav Shakhrai, Ju Hu, Yun Fu, Denys Makoviichuk, Sergey Tulyakov, Jian Ren

10:30 - 12:30 | #10 

En este trabajo, proponemos una red eficiente que funciona en tiempo real en dispositivos móviles para el renderizado neuronal. 


Pásate por el stand 923 para conocer a nuestro equipo, probar Lens Studio, Spectacles y nuestro espejo en realidad aumentada, y obtener más información sobre las oportunidades profesionales en Snap.  

Únete al equipo de Snap 

Estamos contratando a investigadores, ingenieros y becarios con talento especializados en aprendizaje automático, visión por ordenador y procesamiento del lenguaje natural. Regístrate si quieres que nos pongamos en contacto contigo para informarte sobre los puestos actuales y futuros de visión por ordenador y aprendizaje automático en Snap, o consulta todas nuestras vacantes actuales a tiempo completo en careers.snap.com

¡Estamos deseando conocerte en CVPR! 

A full schedule of Snap sessions at CVPR.

Volver a Noticias