19. Juni 2023
19. Juni 2023

Snap Research stellt ein neues Text-zu-Bild-Diffusionsmodell für generative KI vor 

In einem neuen Artikel präsentiert Snap Research eine Methode für das schnellste verfügbare On-Device-Modell mit einer Bilderzeugung in unter zwei Sekunden.

Wir bei Snap sind begeistert von den neuen Funktionen und Produkten, die die Kreativität fördern und die Vorstellungskraft zum Leben erwecken. All das wird durch generative KI-Technologie ermöglicht. Obwohl das Interesse an diesen Erfahrungen aufgrund ihrer komplexen technischen Architektur enorm ist, erfordern sie unglaublich viel Zeit, Ressourcen und Verarbeitungsleistung, um Wirklichkeit zu werden – vor allem auf mobilen Geräten. 

Aus diesem Grund freuen wir uns, dir heute mitteilen zu können, dass Snap Research ein neues Modell namens SnapFusion entwickelt hat, das die Modelllaufzeit von der Texteingabe bis zur Bilderzeugung auf dem Handy auf unter zwei Sekunden verkürzt. Das ist die schnellste Zeit, die bisher von der akademischen Community veröffentlicht wurde. 

Snap Research erreichte diesen Durchbruch durch die Optimierung der Netzwerkarchitektur und des Rauschunterdrückungsprozesses. Dadurch wurde das Verfahren unglaublich effizient, während die Bildqualität erhalten blieb. Jetzt ist es also möglich, das Modell auszuführen, um Bilder auf der Grundlage von Textaufforderungen zu generieren, und gestochen scharfe, klare Bilder in nur wenigen Sekunden auf dem Handy zu erhalten, anstatt in Minuten oder Stunden, wie in anderen Forschungen dargestellt. 

Auch wenn dieses Modell noch in den Kinderschuhen steckt, hat diese Arbeit das Potenzial, in Zukunft qualitativ hochwertige generative KI-Erlebnisse auf dem Handy zu ermöglichen. Um mehr über diesen Durchbruch zu erfahren, lies dir bitte hier unseren ausführlichen Artikel durch. 

Zurück zu News