19 de junio de 2023
19 de junio de 2023

Snap presenta avances en la investigación en CVPR 2023

Nuestra investigación líder en IA generativa, visión artificial y realidad aumentada da forma a los productos de Snap y llega a nuestra comunidad<

Esta semana, Snap se dirige al Congreso sobre reconocimiento de patrones y visión artificial (CVPR, según sus siglas en inglés) para destacar nuestra investigación e innovaciones de producto punteras en IA generativa, visión artificial y realidad aumentada. 

En Snap, concebimos la investigación como medio para transformar ideas audaces en innovaciones rompedoras, y a continuación convertir tecnología punta en productos que nuestra comunidad pueda utilizar para expresar su creatividad. 

Nuestros avances en I+D dan forma a las funciones de Snap en Snapchat, en nuestra herramienta de desarrollo de realidad aumentada Lens Studio, en Spectacles e incluso en nuestros nuevos servicios AR Enterprise y AR Mirrors. 

Estos innovadores productos han llevado a Snap a convertirse en una de las plataformas de realidad aumentada más grandes del mundo: Más de 750 millones de personas utilizan Snapchat cada mes, más de 300.000 creadores y desarrolladores de realidad aumentada han creado experiencias de realidad aumentada en Lens Studio, y las empresas utilizan nuestros anuncios patrocinados de realidad aumentada y los servicios AR Enterprise para obtener mejores resultados comerciales. 


Saluda a Snap en CVPR 


Los miembros del equipo de Snap presentará doce monografías, un tutorial y dos demostraciones en CVPR este año, incluida una destacada por el congreso. Nos complace alcanzar un índice de aceptación de monografías del 70 % este año, lo cual demuestra los avances de nuestro equipo. 

We're excited to achieve a 70% paper acceptance rate this year.

He aquí cinco de las sesiones más destacables de Snap en CVPR que no te puedes perder: 

Martes 20 de junio

DisCoScene: Campos radiantes generativos espacialmente desligados para una síntesis de escenas controlable con percepción 3D

Yinghao Xu, Menglei Chai, Zifan Shi, Sida Peng, Ivan Skorokhodov, Aliaksandr Siarohin, Ceyuan Yang, Yujun Shen, Hsin-Ying Lee, Bolei Zhou, Sergey Tulyakov

De 16:30 a 18:30 h | nº 26 

Este trabajo presenta DisCoScene: un modelo con percepción 3D generativo para una síntesis de escenas controlable y de alta calidad. 


Animación volumétrica sin supervisión 

Aliaksandr Siarohin, Willi Menapace, Ivan Skorokhodov, Kyle Olszewski, Jian Ren, Hsin-Ying Lee, Menglei Chai, Sergey Tulyakov

De 16:30 a 18:30 h | nº 50

Esta monografía propone un enfoque novedoso para la animación 3D de objetos deformables no rígidos sin supervisión. Nuestro método averigua la estructura 3D y la dinámica de los objetos únicamente a partir de videos RGB de vista única, y puede descomponerlos en partes semánticamente significativas que permiten su seguimiento y animación. 


3 DAvatarGAN: Dominios de conexión para avatares personalizados editables

Rameen Abdal, Hsin-Ying Lee, Peihao Zhu, Menglei Chai, Aliaksandr Siarohin, Peter Wonka, Sergey Tulyakov

De 16:30 a 18:30 h | nº 40

Esta aportación permite la generación, edición y animación de avatares 3D artísticos personalizados a partir de conjuntos de datos artísticos. 


Afecto: Averigua explicaciones afectivas para datos visuales del mundo real

Panos Achlioptas, Maks Ovsjanikov, Leonidas Guibas, Sergey Tulyakov

De 16:30 a 18:30 h | nº 240 

En este trabajo, exploramos las reacciones emocionales que las imágenes del mundo real tienden a inducir utilizando el lenguaje natural como medio para expresar la razón de ser de una respuesta afectiva a un determinado estímulo visual. 


Miércoles 21 de junio

Campo de luz neural en tiempo real en dispositivos móviles

Junli Cao, Huan Wang, Pavlo Chemerys, Vladislav Shakhrai, Ju Hu, Yun Fu, Denys Makoviichuk, Sergey Tulyakov, Jian Ren

De 10:30 a 12:30 h | nº 10 

En este trabajo, proponemos una red eficiente que funciona en tiempo real en dispositivos móviles para el renderizado neuronal. 


Pásate por el stand nº 923 para conocer a nuestro equipo, probar Lens Studio, Spectacles y nuestro espejo de realidad aumentada, y obtener más información sobre oportunidades profesionales en Snap.  

Únete a la familia Snap 

Estamos contratando a investigadores, ingenieros y becarios con talento que estén especializados en aprendizaje automático, visión artificial y procesamiento de lenguaje natural. Regístrate si quieres que te contacten sobrepuestos actuales y futuros relativos a visión artificial y aprendizaje automático en Snap, o consulta todas nuestras ofertas actuales a tiempo completo en careers.snap.com

¡Estamos impacientes por conocerte en CVPR! 

A full schedule of Snap sessions at CVPR.

Volver a las noticias