Denne uken er Snap på vei til Computer Vision og Pattern Recognition Conference (CVPR) for å sette søkelyset på vår ledende forskning og produktutvikling relatert til generativ AI, datavisjo og utvidet virkelighet.
Hos Snap er vår tilnærming til forskning å forvandle dristige ideer til banebrytende innovasjoner, og deretter gjøre toppmoderne teknologier til produkter som fellesskapet vårt kan bruke til å uttrykke kreativiteten sin.
Våre fremskritt innen forskning og utvikling former Snap funksjoner på tvers av hele Snapchat, våre AR-utviklingsverktøy, Lens Studio og Spectacles samt våre nye AR-enterprisetjenester og AR-speil.
Disse innovative produktene har gjort Snap til en av de største AR-plattformene i verden. Mer enn 750 millioner mennesker bruker Snapchat hver måned, og mer enn 300 000 AR-skapere og utviklere har bygget AR-opplevelser i Lens Studio, og bedrifter bruker våre Sponsede AR-annonser annonser til bedre resultater for bedriften.
Si Hei Snap på CVPR
Snap teammedlemmer vil presentere tolv papirer, en tutorial, og to demoer på CVPR i år, inkludert en som fremheves på konferansen. Vi er glade for å oppnå en 70 % papirakseptrangering i år, som er et bevis på fremskritt fra teamet vårt.
Her er fem Snap-økter på CVPR (du vil ikke gå glipp av!):
Tirsdag, 20. juni
Yinghao Xu, Menglei Chai, Zifan Shi, Sida Peng, Ivan Skorokhodov, Aliaksandr Siarohin, Ceyuan Yang, Yujun Shen, Hsin-Ying Lee, Bolei Zhou, Sergey Tulyakov
16.30–18.30 m| #26.
Dette arbeidet presenterer DisCoScene: en 3D-klar generativ modell kontrollerbar scenesyntese av høy kvalitet.
Uovervåket volumetrisk animasjon
Aliaksandr Siarohin, Willi Menapace, Ivan Skorokhodov, Kyle Olszewski, Jian Ren, Hsin-Ying Lee, Menglei Chai, Sergey Tulyakov
16.30–18.30 | #50
Dette papiret foreslår en ny tilnærming for uovervåket 3D-animasjon av non-rigide deformerbare objekter. Metoden vår lærer 3D-strukturen og dynamikken til objekter utelukkende fra RGB-vidoer med enkeltvisning, og kan dekomponere dem i semantisk meningsfulle deler som kan spores og animeres.
3DAvatarGAN: Brygeedomener for personlige redigerbare avatarer
Rameen Abdal, Hsin-Ying Lee, Peihao Zhu, Menglei Chai, Aliaksandr Siarohin, Peter Wonka, Sergey Tulyakov
16.30–18.30 | #40
Dette bidraget muliggjør generasjonen, redigeringen og animasjonen av personlige kunstneriske 3D-avatarer på kunstneriske datasett.
Hengivenhet: Læreeffektive forklaringer for visuelle data i sanntid
Panos Achlioptas, Maks Ovsjanikov, Leonidas Guibas, Sergey Tulyakov
18.30-18.30 #240
I dette arbeidet utforsker vi de emosjonelle reaksjonene som virkelige bilder har en tendens til å indusere gjennom å bruke naturlig språk for å uttrykke begrunnelsen bak en effektiv respons på en gitt visuell stimulus.
Onsdag, 21. juni
Naturlige lysfilt på mobile i sanntid.
Junli Cao, Huan Wang, Pavlo Chemerys, Vladislav Shakhrai, Ju Hu, Yun Fu, Denys Makoviichuk, Sergey Tulyakov, Jian
10.30–12:30 #10
For dette arbeidet foreslår vi et effektivt nettverk som kjører i sanntid på mobile enheter for naturlig gjengivelse.
Kom innom bod #923 for å møte teamet vårt, prøve Lens Studio-briller og AR-speil, og lær mer om karrieremuligheter hos Snap.
Bli med i Snap-teamet
Vi ansetter dyktige forskere, ingeniører og praktikanter som spesialiserer seg på maskinlæring, datamaskinvisjoner og naturlig språkbehandling. Registrer deg hvis du ønsker å bli kontaktet om nåværende og fremtidige roller innen datamaskinvisjoner og maskinlæring hos Snap, eller sjekk heltidsstillingene våre på careers.snap.com.
Vi ser frem til å møte deg på CVPR!