10. juni 2025
10. juni 2025

Snap lancerer nye lette, medrivende specifikationer i 2026

Vi mener, at tiden er inde til en revolution inden for computerteknologi, der naturligt integrerer vores digitale oplevelse med den fysiske verden. Derfor har vi brugt 11 år og mere end 3 milliarder dollars på at opfinde en ny type computer til augmented reality, designet til at forbedre den fysiske verden med digitale oplevelser. Vi kalder dem specifikationer, en ultra-kraftfuld bærbar computer integreret i et par lette briller med gennemsigtige linser, og de kommer næste år.

specifikationer forstår verden omkring dig med avanceret maskinlæring, bringer AI-assistance ind i et tredimensionelt rum, muliggør delte spil og oplevelser med venner og giver en fleksibel og kraftfuld arbejdsstation til browsing, streaming og meget mere.

Vi har altid bygget vores produkter og tjenester i et forsøg på at få teknologien til at føles mere menneskelig. Da vi først startede Snapchat, troede folk stadig, at den digitale verden var adskilt fra den "virkelige" verden. Digitale tjenester afspejlede sjældent den menneskelige natur. Sociale medier var en popularitetskonkurrence, samtaler blev optaget for evigt, og apps åbnede op for endeløse feeds af indhold.

Snapchat ændrede alt det. Vi introducerede flygtige beskeder, så samtaler føltes mere som at tale ansigt til ansigt. Vi byggede lodret video, så folk kunne holde deres telefoner komfortabelt, mens de så på fuld skærm. Vi designede Stories til at placere indhold i kronologisk rækkefølge, som historier altid er blevet fortalt, i stedet for et omvendt kronologisk feed. Og vi har designet Snapchat til at åbne op for kameraet for at inspirere til kreativitet og selvudfoldelse.

Men vi har altid længtes efter noget anderledes. Den lille smartphone begrænsede vores fantasi. Den tvang os til at se ned på en skærm i stedet for op på verden. Den krævede, at vores fingre skulle holde, swipe og trykke, når vi i virkeligheden ønskede at leve håndfrit. Den holdt indholdet begrænset til et lille 2D-rektangel, når vi i virkeligheden ønskede at opleve livet i al dets tredimensionelle pragt.

Og nu, på et tidspunkt, hvor computere lærer at tænke og handle som mennesker med kunstig intelligens, er det klart, at nutidens enheder og brugergrænseflader er sørgeligt utilstrækkelige til at realisere det fulde potentiale af AI. Chatbots vil snart vige pladsen for medrivende oplevelser, der bringer AI ind i verden gennem augmented reality, hvilket giver os mulighed for at udtrykke os selv, leve i nuet, lære om verden og have det sjovt sammen.

Udviklere bygger allerede nye oplevelser til Spectacles, vores 5. generation af briller, der blev udgivet i 2024 og er designet til, at udviklere kan forberede sig på den offentlige lancering af specifikationer næste år. Vi har set utrolig innovation fra hele verden, herunder:

  • Super Travel fra Gowaaa hjælper globale rejsende med at oversætte skilte, menuer og kvitteringer og omregne valutaer.

  • Drum Kit fra Paradiddle lærer nye trommeslagere at spille ved at lægge signaler over et rigtigt trommesæt og lytte til noderne.

  • Pool Assist fra Studio ANRK hjælper spillere med at lave bedre stød i pool.

  • Cookmate fra Headraft finder opskrifter baseret på tilgængelige ingredienser og giver trin-for-trin madlavningsvejledning i køkkenet.

  • Wisp World fra Liquid City tager dig med på finurlige eventyr for legende at udforske verden omkring dig.

Vi annoncerer også store opdateringer til Snap OS, der bygger på feedback og forslag fra vores udviklerfællesskab:

  • Dyb integration med OpenAI og Gemini på Google Cloud: Vi gør det nu muligt for udviklere at bygge multimodale AI-drevne Linser og udgive dem til Spectacles-fællesskabet. For eksempel bruger udviklere AI til at levere tekstoversættelse og valutaomregning (Super Travel), foreslå opskrifter (Cookmate) og tage dig med på finurlige eventyr (Wisp World) baseret på, hvad du ser, siger eller hører, mens du har Spectacles på. Vi tilbyder kameraadgang designet med privatliv for øje gennem vores proprietære Remote Service Gateway.

  • Depth Module API: Oversætter 2D-information fra store sprogmodeller for at forankre AR-information præcist i tre dimensioner, hvilket åbner op for et nyt paradigme for rumlig intelligens.

  • Automated Speech Recognition API: Muliggør transskription i realtid med understøttelse af mere end 40 sprog, herunder ikke-indfødte accenter med høj nøjagtighed.

  • Snap3D API: Giver udviklere mulighed for at generere 3D-objekter på farten inde i Linser.

Og vi lancerer nye værktøjer specifikt til udviklere, der bygger lokationsbaserede oplevelser, hvilket gør det lettere at bringe monumenter, museer og meget mere til live:

  • Fleet Management-app: Gør det muligt for udviklere at fjernovervåge og administrere flere par specifikationer.

  • Guidet tilstand: Udviklere kan konfigurere specifikationer til hurtigt at starte direkte i en singleplayer- eller multiplayer-Linse for en problemfri besøgsoplevelse.

  • Guidet navigation: Denne funktion gør det nemt at bygge AR-guidede ture, der leder folk gennem en række vartegn ved arrangementer eller på museer.

Disse værktøjer understøtter udviklere som Enklu, som driver det holografiske teater Verse Immersive på mere end et dusin steder i USA. Nu kan Verse Immersives kunder i Chicago bruge Spectacles til at spille deres nye spil SightCraft med venner, og det vil blive rullet ud flere steder i år.

Og kommer snart:

  • Niantic Spatial VPS: Vi samarbejder med Niantic Spatial for at bringe deres Visual Positioning System til Lens Studio og specifikationer for at bygge et delt, AI-drevet kort over verden.

  • WebXR-support i browseren: Giver udviklere mulighed for at bygge, teste og få adgang til WebXR-oplevelser.

Hvis du er interesseret i at bygge til specifikationer før lanceringen, kan du deltage i vores udviklerprogram her: www.spectacles.com/lens-studio.

Tilbage til Nyheder