Snap Research lanza un nuevo modelo de difusión de texto a imagen para la IA generativa

En un nuevo artículo, Snap Research nos presenta uno de los modelos de difusión de texto a imagen más rápidos del mercado, que genera imágenes en menos de dos segundos.
En Snap, nos emocionan las nuevas funciones y productos que potencian la creatividad y dan vida a la imaginación, todo ello gracias a la tecnología de IA generativa. Si bien estas experiencias despiertan un gran interés, debido a su compleja arquitectura técnica, requieren mucho tiempo, recursos y capacidad de procesamiento para cobrar vida, sobre todo en dispositivos móviles.
Es por eso que hoy, estamos muy emocionados por compartir que Snap Research ha desarrollado un nuevo modelo llamado SnapFusion que acorta el tiempo de ejecución del modelo desde la entrada de texto hasta la generación de la imagen en el dispositivo móvil a menos de dos segundos, el tiempo más rápido publicado hasta la fecha por la comunidad académica.
Snap Research logró este avance mediante la optimización de la arquitectura de red y el proceso de eliminación de ruido, lo que hace que sea increíblemente eficiente, manteniendo la calidad de la imagen. Ahora es posible ejecutar el modelo para crear imágenes a partir de mensajes de texto y obtener imágenes nítidas y claras en cuestión de segundos en el dispositivo móvil, en lugar de minutos u horas, como ocurre en otras investigaciones.
Todavía es demasiado pronto para este tipo de modelo, pero este trabajo tiene el potencial de aumentar la calidad de las experiencias de IA generativa en los dispositivos móviles en el futuro. Para obtener más información sobre este avance, consulte nuestro artículo más detallado aquí.
Volver a las noticias