Apple hat mit dem Release von visionOS 26.4 Beta ein Update für Entwickler eingeführt, das die Integration externer Rechenleistung in virtuellen Umgebungen verbessert. Frühere Ansätze waren hauptsächlich auf das Spiegeln einer 2D-Mac-Oberfläche beschränkt und ungeeignet für anspruchsvolle VR-Anwendungen. Ein Konzept namens „Spatial Rendering“ wurde angekündigt, jedoch verzögerte sich dessen Umsetzung. Als Alternative diente das Open-Source-Tool ALVR, welches SteamVR-Spiele und -Apps von Computern auf die Vision Pro überträgt, allerdings mit Performance- und Bandbreitenbeschränkungen.
Das neue „Foveated Streaming“-Framework löst dieses Problem. Es ermöglicht eine tiefere Integration externer Rechenleistung, indem VR-Anwendungen Berechnungen teilweise auf leistungsstärkeren Servern oder Computern ausführen können und nur notwendige Bilddaten in Echtzeit an die Vision Pro senden. Diese Technik nutzt die Blickverfolgung des Headsets, um den Stream für den direkten Blickbereich in hoher Qualität zu kodieren, während periphere Bereiche komprimiert werden. Dadurch steigt die wahrgenommene Bildqualität ohne zusätzlichen Bandbreitenbedarf. Nutzer profitieren von verbesserter Immersion ohne merkliche Einschränkungen durch Kompression.
Ein Beispiel ist die Implementierung von „Foveated Streaming“ in ALVR, was eine Leistungsoptimierung ermöglichen und komplexere VR-Anwendungen auf der Vision Pro verbessern könnte. Auch Valves kommende Steam Frame VR-Brille setzt stark auf diese Technik. Beide basieren auf dem Prinzip, dass das menschliche Sehen schärfer im zentralen Blickfeld stattfindet, während die periphere Sicht weniger detailreich ist. Dadurch können Ressourcen effizient genutzt und eine verbesserte VR-Erfahrung erreicht werden. Das Framework von Apple eröffnet Entwicklern die Möglichkeit, VR-Erlebnisse basierend auf externer Rechenleistung zu entwickeln und die Immersion mit der Vision Pro weiter zu erweitern.
Schlagwörter: Apple + ALVR + Spatial Rendering“
Wie bewerten Sie den Schreibstil des Artikels?
