21 de junio de 2022
21 de junio de 2022

A Spotlight on Snap Research at CVPR 2022

Snap’s Research team is kicking off the week in New Orleans at the 2022 Computer Vision and Pattern Recognition Conference. This year at CVPR, our team will share seven new academic papers, alongside the world’s leading researchers, that show breakthroughs across image, video, object synthesis and object manipulation methods.

El equipo de Snap Research arranca la semana en Nueva Orleans en la Computer Vision and Pattern Recognition Conference de 2022. Este año en la CVPR, nuestro equipo compartirá siete nuevos trabajos académicos, junto con los principales investigadores del mundo, que muestran avances a través de imágenes, video, síntesis de objetos y métodos de manipulación de objetos.

Hemos trabajado estrechamente con estudiantes e instituciones académicas externas en esta labor para alcanzar objetivos en la tecnología de síntesis de video. En definitiva, estos desarrollos pueden informar acerca de lo que presentamos a nuestra comunidad de Snapchatters de todo el mundo. 

El trabajo presentado en nuestros trabajos se basa en los siguientes desarrollos: Nuestro equipo ha creado representaciones de video implícitas, produciendo una síntesis de vídeo de última tecnología en diversas tareas, a la vez que se mantienen los requisitos computacionales a un nivel modesto. Luego presentamos dos nuevos problemas en el dominio: la síntesis de video multimodal y los entornos reproducibles.

Por ejemplo, el trabajo de CLIP-NeRF supuso un esfuerzo de investigación colaborativa para estudiar la manipulación de campos de Neural Radiance. Los campos de Neural Radiance hacen posible representar objetos a través de las redes neurales, sin necesidad de canales gráficos sofisticados. Los resultados de este trabajo ayudan a realizar mejoras en cuanto a la forma en la que se crean activos digitales para utilizar en experiencias de realidad aumentada. Y, este trabajo de PartGlot indaga sobre cómo las máquinas pueden entender mejor las formas y los objetos que tenemos a nuestro alrededor mediante modelos de lenguaje.

Estamos emocionados con el potencial de este trabajo para descubrir la creatividad de nuestra comunidad y creadores con nuestros productos y plataformas en el futuro.

¿VAS A IR A LA CVPR?  

¡Nuestro equipo estará allí, acércate a saludar! Si te gustaría saber más sobre nuestros trabajos, equipo y productos, visita el stand número 1322 en la Exposición (del 21 al 23 de junio) o envíanos un correo electrónico a conferences@snap.com

TRABAJOS DE 2022 CVPR

Escritos por y en colaboración con Snap Research

Entornos reproducibles: Manipulación de vídeo en espacio y tiempo

Willi Menapace, Stéphane Lathuilière, Aliaksandr Siarohin, Christian Theobalt, Sergey Tulyakov, Vladislav Golyanik, Elisa Ricci Sesión sobre póster: martes 21 de junio de 2022 2:30 P M – 5:00 P. M.

I. D del trabajo.: 2345 | I. D. del póster: 99b

Muéstrame y Dime cómo: Síntesis de video a través del Acondicionamiento Multimodal Ligong Han, Jian Ren, Hsin-Ying Lee, Francesco Barbieri, Kyle Olszewski, Shervin Minaee, Dimitris Metaxas, Sergey Tulyakov

Sesión de póster: martes 21 de junio de 2022  2:30 a. m. a 5:00 p. m.

I. D. del trabajo: 3594 | I. D. del póster: 102b

CLIP-NeRF: Manipulación de Texto e Imagen de Campos de Radiancia Neural.

Can Wang, Menglei Chai, Mingming He, Dongdong Chen, Jing Liao Sesión de póster: martes 21 de junio de 2022 |  de 2:30 a. m. a 5:00 p. m.

I. D. de trabajo: 6311 | I. D. de póster: 123b

StyleGAN-V: un generador de video continuo con el precio, la calidad de imagen y los perfiles de StyleGAN2 

Ivan Skorokhodov, Sergey Tulyakov, Mohamed Elhoseiny

Sesión de póster: martes 21 de junio de 2022  2:30 a. m. a 5:00 p. m.

I. D. de trabajo: 5802 | I. D. de póster: 103b

Extrapolar imágenes diferentes a través de la Inversión de GAN

Yen-Chi Cheng, Chieh Hubert Lin, Hsin-Ying Lee, Jian Ren, Sergey Tulyakov, Ming-Hsuan Yang

Sesión de póster: jueves, 23 de junio de 2022 | 10:00 a. m. a 12:30 p. m.

I. D. de trabajo: 5449 | I. D. de póster: 79a

PartGlot: Aprender la Segmentación de Partes de Formas a partir de los Juegos de Referencia del Lenguaje 

Ian Huang, Juil Koo, Panos Achlioptas, Leonidas Guibas, Minhyuk Sung

Sesión de póster: viernes 24 de junio de 2022 8:30 a. m. a 10:18 a. m.

I. D. de trabajo: 3830 | I. D. de póster: 49a

¿Son los transformadores multimodales robustos para la modalidad que falta?

Mengmeng Ma, Jian Ren, Long Zhao, Davide Testuggine, Xi Peng

Sesión de póster: viernes 24 de junio de 2022 | 10:00 a. m. a 12:30 p. m.

I. D. de trabajo: 7761 | I. D. de póster:  212a

 

 

Back To News