Verdecken oder Überlagern?

ARKit 3: Neue AR-Technolgie sorgt für Staunen

Mit ARKit schaffte Apple direkt einen sehr guten Einstieg in der erweiterte Realität und machte es Entwickler damit besonders einfach, dass Sie AR-Apps und -Inhalte erschaffen können. Die zweite Version lieferte dann die Erkennung von Wänden und führte ein neues Format für 3D-Objekte ein. ARKit 3 hingegen geht nun einen Schritt weiter und stellt laut Apple den Menschen in den Mittelpunkt – nicht nur im übertragenen Sinne.

Von   Uhr

Im letzten Jahr erweiterte Apple ARKit mit coolen Features und führte etwa ein Multi-User-Erlebnis ein, sodass mehrere Nutzer mit dem eigenen iPhone oder iPad exakt die selben AR-Inhalte sehen können. Die neuste Version vertieft dies nochmal. ARKit 3 lässt beispielsweise das gleichzeitig Tracking über Front- und Rückkamera zu, sodass Sie etwa mit Ihrem Gesicht Einfluss auf den AR-Inhalt nehmen können. Daneben erlaubt die TrueDepth Kamera von iPhone X, iPhone XS, iPhone XS Max, iPhone XR und iPad Pro (2019) das mehrere Gesichter gleichzeitig getrackt werden können.

Von der Redaktion empfohlener Inhalt

An dieser Stelle findest du einen externen Inhalt von YouTube, der den Artikel ergänzt. Du kannst ihn dir mit einem Klick anzeigen lassen und wieder ausblenden.

Besonders interessant an der neuen Version ist jedoch das Motion Capture-Feature, wodurch AR-Figuren Ihre Bewegungen exakt nachahmen können, und natürlich die Umgebungserkennung. Dies ermöglicht Ihnen, dass Personen im Bild von AR-Inhalten überdeckt werden und diese umgekehrt ebenfalls überdecken können, wenn diese weiter im Hintergrund sind. Zusätzlich dazu verspricht Apple eine verbesserte Erkennung von 3D-Objekten in komplexen Umgebungen und ARKit 3 ist zudem in der Lage Größen deutlich besser einzuschätzen.

ARKit 3 stellt den Menschen ins Zentrum der AR. Mit Motion Capture können Entwickler die Bewegungen von Menschen in ihre App integrieren und mit People Occlusion können AR-Inhalte auf natürliche Weise vor oder hinter Personen angezeigt werden. Dadurch werden AR-Erlebnisse noch intensiver und Nutzer können mit lustigen Apps Spaß haben, die an Green Screens erinnern. ARKit 3 ermöglicht es der Frontkamera außerdem bis zu drei Gesichter zu verfolgen und bringt simultane Unterstützung für Front- und Rückkamera. Es ermöglicht auch gemeinsame Sessions, mit denen man noch schneller in geteilte AR-Erlebnisse eintauchen kann.

RealityKit wurde von Grund auf für AR entwickelt. Es bietet fotorealistisches Rendering, fantastische Umgebungsabbildung und Unterstützung für Kameraeffekte wie Bildrauschen und Bewegungsunschärfe, was virtuelle Inhalte kaum noch von der Realität unterscheidbar macht. RealityKit bietet außerdem hervorragende Animationen, Physik und räumlichen Klang und Entwickler können die Möglichkeiten von RealityKit mittels neuen RealityKit Swift API einsetzen. Mit Reality Composer, einer leistungsstarken neuen App für iOS, iPadOS und Mac, erstellen Entwickler ganz einfach Prototypen für AR-Erlebnisse und produzieren diese, auch ohne vorherige Erfahrung mit 3D. Mit einer einfachen Drag & Drop-Benutzeroberfläche und einer Mediathek mit hochwertigen 3D-Objekten und -Animationen platzieren, bewegen und rotieren Entwickler AR-Objekte in Reality Composer, um eine AR-Erfahrung zu erstellen. Diese können sie in Xcode direkt in eine App integrieren oder in AR Quick Look exportieren.

Mehr zu diesen Themen:

Diskutiere mit!

Hier kannst du den Artikel "ARKit 3: Neue AR-Technolgie sorgt für Staunen" kommentieren. Melde dich einfach mit deinem maclife.de-Account an oder fülle die unten stehenden Felder aus.

Die Kommentare für diesen Artikel sind geschlossen.