Apple möchte schon zum Start seines ersten Mixed-Reality-Headsets mit dem Softwarevertrieb beginnen. Ab Herbst 2023 lässt sich ein visionOS App Store austesten.

Ohne Entwickler wird das nichts mit der Vision Pro: Entsprechend wichtig ist es für Apple, Developer von seinem Mixed-Reality-Headset zu überzeugen. Dazu hat das Unternehmen nun eine Timeline publiziert, die recht sportlich ist: Demnach wird es bereits im Herbst einen eigenen App Store als Beta für das visionOS-SDK geben.

Apples Zeitleiste

Zur Erinnerung: Die Vision Pro selbst soll im Frühjahr 2024 auf den Markt kommen, allerdings zunächst nur in den Vereinigten Staaten von Amerika. Europa wird „später“ folgen. Der Preis für das Headset liegt in Apples Heimat bei mindestens 3500 US-Dollar, könnte aber durch Zubehör noch deutlich teurer werden. Schon seit der Vorstellung im Juni versucht der Konzern, Entwickler auf die Plattform zu locken. So gibt es eigene Developer Labs an mehreren Standorten auf der Welt sowie Leihgeräte für ausgewählte Entwickler.

Apple teilt mit, dass iPad- und sogar iPhone-Apps automatisch im visionOS-App-Store publiziert werden – es dürfte aber wieder die Möglichkeit geben (wie man es von iOS- und iPadOS-Apps für den ARM-Macs kennt), Opt-outs zu definieren. „Die meisten Frameworks, die in iPadOS und iOS verfügbar sind, sind auch in visionOS enthalten, was bedeutet, dass fast alle iPad- und iPhone-Apps unverändert auf visionOS laufen können.“ Wirklich schön dürften solche Apps allerdings nicht sein, weshalb Apple möchte, dass möglichst viele Developer Anpassungen vornehmen.

Testen und Anpassen

Apple wird dazu Hinweise geben. Gibt es Schwierigkeiten mit einer iOS- oder iPadOS-App für das Headset, sollen Entwickler innerhalb von App Store Connect eine Warnung erhalten. Dann kann man entweder Anpassungen vornehmen oder Gerätevoraussetzungen definieren. Apple empfiehlt, die eigene App unbedingt im visionOS-Simulator zu testen, der Teil von Xcode 15 Beta ist.

Besser sei es jedoch, die App-Erfahrung an die Vision Pro anzupassen und gleich das visionOS-SDK zu verwenden. „Ihre App übernimmt dann das standardmäßige Erscheinungsbild des visionOS-Systems und Sie können Elemente hinzufügen, wie z. B. 3D-Inhalte, die auf die Eingabe durch Augen und Hände abgestimmt sind.“ Mehr Details zum SDK hat der iPhone-Konzern auf seiner Developer-Website veröffentlicht.

Quelle: https://www.heise.de/news/App-Store-fuer-Vision-Pro-kommt-schneller-als-erwartet-9296067.html