19 juin 2023
19 juin 2023

Snap Research présente un nouveau modèle de diffusion texte en image pour l'IA générative 

Dans un nouvel article, Snap Research présente une méthode pour le modèle sur l'appareil le plus rapide disponible avec génération d'image en moins de deux minutes.

Chez Snap, nous nous inspirons des nouvelles fonctionnalités et produits qui améliorent la créativité et donnent vie à l'imagination, le tout rendu possible par la technologie d'IA générative. Bien qu’il y ait un énorme intérêt pour ces expériences, en raison de leur architecture technique complexe, elles nécessitent un temps, des ressources et une puissance de traitement énormes pour prendre vie, notamment sur mobile. 

C'est pourquoi nous sommes ravis de partager que Snap Research a développé un nouveau modèle appelé SnapFusion qui raccourcit la durée d'exécution du modèle de l'entrée de texte à la génération d'image sur mobile à moins de deux minutes, soit le temps le plus rapide publié à ce jour par la communauté universitaire. 

Snap Research a réalisé cette percée en optimisant l'architecture du réseau et le processus de débruitage, ce qui la rend incroyablement efficace, tout en maintenant la qualité d'image. Il est donc maintenant possible d'exécuter le modèle pour générer des images en fonction d'invites texte, et de récupérer des images claires et nettes en quelques minutes sur mobile plutôt que de minutes ou d'heures, comme d'autres recherches le présentent. 

Il est certes trop tôt pour ce modèle, cependant ce travail a le potentiel de surcharger les expériences d'IA générative de haute qualité sur mobile à l'avenir. Veuillez consulter notre article plus détaillé ici pour plus de détails sur cette découverte. 

Retour à l'actualité