
Snap Research crée une nouvelle méthode pour numériser et restituer des ressources pour la réalité augmentée
Cette semaine, l'équipe de recherche de Snap présente un article universitaire à SIGGRAPH, la plus grande conférence sur l'infographie et les techniques interactives.
L'article de recherche NeRoic détaille une nouvelle façon de créer des ressources numériques pour le développement de la réalité augmentée de manière transparente à partir de photos et de vidéos d'objets provenant de collections en ligne (comme les images Google).
Cette technologie de pointe est appelée Neural Object Capture and Rendering from Online Image Collections, et supprime la nécessité de photographier et de restituer des images dans un studio physique, ce qui est aujourd'hui une partie fastidieuse du processus de création de ressources numériques.
Alors, comment ça marche ? Nos chercheurs ont trouvé plusieurs images et vidéos d'un objet, dans ce cas, par exemple, le buste de Néfertiti, sous différents angles. Ils ont utilisé la méthode NeRoic pour numériser la ressource, éliminant ainsi le besoin de capture en studio multi-vues.
Cette approche pourrait permettre à un créateur ou à un développeur de RA de numériser n'importe quel objet dans le monde, tant que des photos ou des vidéos de celui-ci sont disponibles dans une collection d'images en ligne. Il s'agit d'une étape importante vers l'objectif de créer une bibliothèque de ressources numériques de RA pour superposer l'informatique au monde.
SNAP À SIGGRAPH
Cette année, la conférence SIGGRAPH aura lieu au Vancouver Convention Center où Snap organisera un événement de réseautage pour les étudiants et les professionnels travaillant dans l'infographie. Si vous souhaitez entrer en contact avec Snap, s'inscrire ici. L'équipe Snap présentera également un cours sur les Landmarker personnalisés et animera une table ronde sur Confidentialité, sécurité et bien-être : des solutions pour l'avenir de la RA et de la RV.
Note de la rédaction : ceci est également publié sur le blog de Snap Research.