10 juni 2025
10 juni 2025

Snap lanserar nya lätta, uppslukande specifikationer 2026

Vi tror att tiden är mogen för en revolution inom databehandling som på ett naturligt sätt integrerar vår digitala upplevelse med den fysiska världen. Det är därför vi har ägnat 11 år och mer än 3 miljarder dollar åt att uppfinna en ny typ av dator för förstärkt verklighet, utformad för att förbättra den fysiska världen med digitala upplevelser. Vi kallar dem specifikationer, en extremt kraftfull bärbar dator integrerad i ett par lätta glasögon med genomskinliga linser, och de kommer nästa år.

specifikationer förstår världen omkring dig med avancerad maskininlärning, tar in AI-assistans i ett tredimensionellt utrymme, möjliggör delade spel och upplevelser med vänner och utgör en flexibel och kraftfull arbetsstation för att surfa, streama med mera.

Vi har alltid byggt våra produkter och tjänster i ett försök att få tekniken att kännas mer mänsklig. När vi först startade Snapchat trodde folk fortfarande att den digitala världen var skild från den ”verkliga” världen. Digitala tjänster speglade sällan den mänskliga naturen. Sociala medier var en popularitetstävling, konversationer spelades in för alltid och appar öppnades till oändliga flöden av innehåll.

Snapchat ändrade på allt det. Vi introducerade tillfälliga meddelanden så att konversationer kändes mer som att prata ansikte mot ansikte. Vi byggde vertikal video så att folk kunde hålla sina telefoner bekvämt medan de tittade på helskärm. Vi designade Stories för att placera innehåll i kronologisk ordning, på samma sätt som berättelser alltid har berättats, snarare än ett omvänt kronologiskt flöde. Och vi har designat Snapchat för att öppna i kameran, för att inspirera till kreativitet och självuttryck.

Men vi har alltid längtat efter något annorlunda. Den lilla smarttelefonen begränsade vår fantasi. Den tvingade oss att titta ner på en skärm, istället för upp på världen. Den krävde att våra fingrar skulle hålla, svepa och trycka när vi egentligen ville leva handsfree. Den höll innehållet begränsat till en liten 2D-rektangel, när vi egentligen ville uppleva livet i all dess tredimensionella prakt.

Och nu, i en tid då datorer lär sig att tänka och agera som människor med artificiell intelligens, är det tydligt att dagens enheter och användargränssnitt är bedrövligt otillräckliga för att förverkliga AI:s fulla potential. Chattbotar kommer snart att ge vika för uppslukande upplevelser som tar in AI i världen genom förstärkt verklighet, vilket ger oss möjlighet att uttrycka oss, leva i nuet, lära oss om världen och ha roligt tillsammans.

Utvecklare bygger redan nya upplevelser för Spectacles, vår 5:e generation glasögon som släpptes 2024 och som är utformade för att utvecklare ska kunna förbereda sig för den offentliga lanseringen av specifikationer nästa år. Vi har sett otrolig innovation från hela världen, inklusive:

  • Super Travel från Gowaaa hjälper globala resenärer att översätta skyltar, menyer och kvitton och konvertera valutor.

  • Drum Kit från Paradiddle lär nya trummisar hur man spelar genom att lägga över ledtrådar på ett riktigt trumset och lyssna på tonerna.

  • Pool Assist från Studio ANRK hjälper spelare att göra bättre stötar i biljard.

  • Cookmate från Headraft hittar recept baserat på tillgängliga ingredienser och ger steg-för-steg-vägledning för matlagning i köket.

  • Wisp World från Liquid City tar med dig på finurliga äventyr för att lekfullt utforska världen omkring dig.

Vi tillkännager också stora uppdateringar av Snap OS, som bygger på feedback och förslag från vår utvecklargemenskap:

  • Djupa integrationer med OpenAI och Gemini på Google Cloud: Vi gör det nu möjligt för utvecklare att bygga multimodala AI-drivna linser och publicera dem för Spectacles-communityn. Utvecklare använder till exempel AI för att tillhandahålla textöversättning och valutakonvertering (Super Travel), föreslå recept (Cookmate) och ta med dig på finurliga äventyr (Wisp World) baserat på vad du ser, säger eller hör när du bär Spectacles. Vi erbjuder kameraåtkomst utformad med integritet i åtanke genom vår egenutvecklade Remote Service Gateway.

  • API för djupmodul: Översätter 2D-information från stora språkmodeller för att förankra AR-information korrekt i tre dimensioner, vilket öppnar upp ett nytt paradigm för rumslig intelligens.

  • API för automatisk taligenkänning: Möjliggör transkribering i realtid med stöd för över 40 språk, inklusive icke-inhemska accenter med hög noggrannhet.

  • Snap3D API: Låter utvecklare generera 3D-objekt i farten inuti linser.

Och vi lanserar nya verktyg specifikt för utvecklare som bygger platsbaserade upplevelser, vilket gör det lättare att väcka monument, museer och annat till liv:

  • Appen Fleet Management: Gör det möjligt för utvecklare att fjärrövervaka och hantera flera par specifikationer.

  • Guidat läge: Utvecklare kan konfigurera specifikationer för att snabbt starta direkt i en enspelar- eller flerspelarlins för en smidig besökarupplevelse.

  • Guidad navigering: Den här funktionen gör det enkelt att bygga AR-guidade turer som leder människor genom en serie landmärken på evenemang eller museer.

Dessa verktyg stöder utvecklare som Enklu, som driver den holografiska teatern Verse Immersive på mer än ett dussin platser i USA. Nu kan Verse Immersives kunder i Chicago använda Spectacles för att spela sitt nya spel SightCraft med vänner, och det kommer att rullas ut på fler platser i år.

Och kommer snart:

  • Niantic Spatial VPS: Vi samarbetar med Niantic Spatial för att ta deras visuella positioneringssystem till Lens Studio och specifikationer för att bygga en delad, AI-driven karta över världen.

  • WebXR-stöd i webbläsaren: Kommer att göra det möjligt för utvecklare att bygga, testa och få tillgång till WebXR-upplevelser.

Om du är intresserad av att bygga för specifikationer före lanseringen kan du gå med i vårt utvecklarprogram här: www.spectacles.com/lens-studio.

Tillbaka till Nyheter