Mit iOS 11 führt Apple auch das Entwicklungstool ARKit ein. Mit ihm ist es möglich, Augmented-Reality-Apps für iPhone und Co. schneller und besser zu entwickeln. Wir verraten Dir, was Du über ARKit zu wissen musst.
Wie schafft man die größte Augmented-Reality-Plattform der Welt? Man stattet einfach ein weitverbreitetes Betriebssystem mit den nötigen Entwicklertools aus, damit Programmierer aus aller Welt die passenden AR-Apps für Millionen von Nutzern erschaffen können - das ist zumindest der Plan, den Apple mit ARKit verfolgt, einem neuen Entwicklungskit für iOS 11.
1. Was ist Augmented Reality überhaupt?
Augmented Reality (kurz AR) beschreibt die Platzierung von digitalen Objekten in der echten Welt oder die Erkennung der echten Welt durch ein digitales Gerät. Auf dem Smartphone wird das Ganze hauptsächlich über die Kamera umgesetzt. Der Nutzer blickt über das Display durch die Kameralinse und sieht die echte Welt. Doch zusätzlich kann die Software des Smartphones diese verändern oder weitere Objekte platzieren. Das klingt ganz stark nach Snapchat oder Pokémon Go. Und es stimmt. Beides sind nämlich hervorragende Beispiels für AR-Apps.

2. Was macht ARKit?
Mit ARKit möchte es Apple den Entwicklern besonders leicht machen, neue Apps für die Augmented Reality zu programmieren. Einfach ausgedrückt handelt es sich dabei um eine Sammlung verschiedener Programmier-Tools, die genutzt werden können, um AR-Apps deutlich schneller und besser als bisher zu erschaffen. Apps wie Snapchat oder Pokémon Go könnte es damit in Zukunft deutlich häufiger geben und sie könnten von viel mehr Entwicklern kommen. Doch welche Tools machen ARKit so besonders?
3. World Tracking zur Erkennung der echten Welt
Bereits seit einigen Jahren ist es möglich, virtuelle Objekte mit Augmented-Reality-Apps in der echten Welt zu platzieren. Doch das Ergebnis war bislang oft durchwachsen. Denn für die Software ist es häufig schwer zu erkennen, wo genau der Boden ist und wo sich in der echten Welt andere Objekte befinden. Deshalb kommt es in Pokémon Go beispielsweise immer wieder vor, dass Pokémon seltsam in der Luft schweben.

Mit World Tracking möchte Apple die Erkennung der Umwelt durch die Smartphone-Sensoren deutlich verbessern. Die Software versteht so besser, wie die echte Welt aussieht und kann einzelne Objekte wie virtuelle Teller oder Tassen beispielsweise korrekt auf einem Tisch platzieren. Eine der ersten Anwendungen, die davon Gebrauch macht, soll eine AR-App sein, die Apple gemeinsam mit Ikea entwickelt. Diese soll es ermöglichen, Möbel virtuell schon mal in die eigene Wohnung zu stellen.
4. ARKit erfasst das Umgebungslicht
ARKit soll über die Kamera-Sensoren des iPhones auch in der Lage sein, zu erkennen, wie viel Licht sich in der Umgebung befindet und von wo das Licht einfällt. Damit können virtuelle Objekte, die in dieser Umgebung platziert werden, einen realistischen Schattenwurf erhalten. Echte Lichtstrahlen sind somit scheinbar in der Lage, ein virtuelles Objekt auszuleuchten. In Wahrheit ist es aber nur der Prozessor, der die Berechnung des korrekten Lichteinfalls anhand der Sensordaten vornimmt.
5. ARKit funktioniert erst ab dem iPhone 6s
Weil die Features, die ARKit bereitstellt, eine Menge Rechenleistung benötigen, funktioniert ARKit erst ab dem iPhone 6s mit seinem Apple-A9-Prozessor. Ältere Modelle wie das iPhone 5s und das iPhone 6 sind zwar mit iOS 11 kompatibel, nicht jedoch mit ARKit. Das iPhone SE verfügt bekanntlich ebenfalls über einen A9-Chip und sollte deshalb ebenfalls AR-ready sein.