En Snap, nos inspiran las nuevas funciones y los productos que mejoran la creatividad y dan vida a la imaginación, todo ello habilitado por la tecnología de IA generativa. Si bien hay un gran interés en estas experiencias, debido a su compleja arquitectura técnica, requieren mucho tiempo, recursos y potencia de procesamiento para cobrar vida, especialmente en los dispositivos móviles.
Por eso hoy nos complace compartir que Snap Research ha desarrollado un nuevo modelo llamado SnapFusion que acorta el tiempo de ejecución del modelo, desde la entrada de texto hasta la generación de imágenes en dispositivos móviles, a menos de dos segundos, el tiempo más rápido publicado hasta la fecha por la comunidad académica.
Snap Research logró este avance al optimizar la arquitectura de la red y el proceso de eliminación de ruido, lo que lo hizo increíblemente eficiente, al tiempo que mantuvo la calidad de la imagen. Por lo tanto, ahora es posible ejecutar el modelo para generar imágenes basadas en indicaciones de texto y obtener imágenes nítidas y claras en cuestión de segundos en el dispositivo móvil, en lugar de minutos u horas, como lo presentan otras investigaciones.
Si bien aún es pronto muy para este modelo, este trabajo tiene el potencial de impulsar experiencias de IA generativa de alta calidad en dispositivos móviles en el futuro. Para leer más sobre este avance, consulta nuestro documento más detallado aquí.