Nesta semana, a Snap visita a Computer Vision and Pattern Recognition Conference (CVPR) para mostrar nossa principal inovação de produtos e pesquisa em inteligência artificial, visão e realidade aumentada.
Na Snap, nossa abordagem de pesquisa é transformar ideias ousadas em inovações revolucionárias e então transformar tecnologias de ponta em produtos que nossa comunidade possa usar para expressa a criatividade.
Nossos avanços de pesquisa e desenvolvimento moldam as funcionalidades no Snapchat, nossa ferramenta de desenvolvimento de RA, a Lens Studio, a Spectacles e até mesmo nossos novos serviços de RA e espelhos de RA.
Esses produtos inovadores fizeram a Snap se tornar uma das maiores plataformas de RA do mundo. São mais de 750 milhões de pessoas que usam o Snapchat mensalmente e mais de 300 mil criadores e desenvolvedores de RA elaboraram experiências de RA na Lens Studio. Além disso, as empresas usam nossos anúncios e serviços corporativos de RA patrocinados para gerar melhores resultados de negócios.
Diga Olá para a Snap na CVPR
Os membros da equipe da Snap apresentarão doze artigos, um tutorial e duas demonstrações na CVPR este ano, incluindo um destaque por parte da conferência. Estamos animados para alcançar uma taxa de aceitação de artigos de 70% este ano, o que é uma prova dos avanços feitos por nossa equipe.
Veja aqui cinco sessões da Snap na CVPR (você não vai querer perder!):
Terça-feira, 20 de junho
Yinghao Xu, Menglei Chai, Zifan Shi, Sida Peng, Ivan Skorokhodov, Aliaksandr Siarohin, Ceyuan Yang, Yujun Shen, Hsin-Ying Lee, Bolei Zhou, Sergey Tulyakov
16:30 - 18:30 | #26
Este trabalho apresenta a DisCoScene: um modelo gerativo com conhecimento em 3D para a síntese de cenas de alta qualidade e controláveis.
Animação volumétrica não supervisionada
Aliaksandr Siarohin, Willi Menapace, Ivan Skorokhodov, Kyle Olszewski, Jian Ren, Hsin-Ying Lee, Menglei Chai, Sergey Tulyakov
16:30 - 18:30 | #50
Este artigo propõe uma abordagem nova para a animação em 3D não supervisionada de objetos deformáveis não rígidos. Nosso método aprende a estrutura e a dinâmica 3D de objetos apenas a partir de vídeos RGB de visualização única, sendo capaz de decompor em partes semanticamente significativas que podem ser rastreadas e animadas.
3DAvatarGAN: fazendo a ponte de domínios para avatares editáveis personalizados
Rameen Abdal, Hsin-Ying Lee, Peihao Zhu, Menglei Chai, Aliaksandr Siarohin, Peter Wonka, Sergey Tulyakov
16:30 - 18:30 | #40
Essa contribuição permite a geração, edição e animação de avatares artísticos em 3D personalizados em conjuntos de dados artísticos.
Afeição: aprendendo explicações afetivas para dados visuais do mundo real
Panos Achlioptas, Maks Ovsjanikov, Leonidas Guibas, Sergey Tulyakov
16:30 - 18:30 | #240
Neste trabalho, exploramos as reações emocionais que imagens do mundo real tendem a induzir usando a linguagem natural como o meio para expressar a lógica por trás de uma resposta afetiva a um determinado estímulo visual.
Quarta-feira, 21 de junho
Campo de luz neural em tempo real em dispositivos móveis
Junli Cao, Huan Wang, Pavlo Chemerys, Vladislav Shakhrai, Ju Hu, Yun Fu, Denys Makoviichuk, Sergey Tulyakov, Jian Ren
10:30 - 12:30 | #10
Neste trabalho, propomos uma rede eficiente que funciona em tempo real em dispositivos móveis para renderização neural.
Pare no estande #923 para conhecer nossa equipe, experimentar o Lens Studio, Spectacles e nosso Espelho de RA e saiba mais sobre oportunidades de carreira na Snap.
Junte-se à família Snap
Estamos contratando pesquisadores, engenheiros e estagiários talentosos especializados em machine learning, visão e processamento computacionais de linguagem natural. Inscreva-se se quiser receber um contato sobre vagas de visão computacional e machine learning atuais e futuras na Snap ou confira todas as nossas vagas no momento em careers.snap.com.
Vemos você na CVPR!