Objekterfassung mit Yoda-Stoffpuppe
Beeindruckend hochwertig: 3D-Objekterfassung mit iPhone und Mac
Die neue „Object Capture“-Funktion, die iOS 15 und macOS 12 Hand in Hand anbieten werden, war Apple so wichtig, dass diese sogar während der diesjährigen WWDC-Keynote berücksichtigt wurde – auf den Vorschauseiten von iOS 15 und macOS 12 ist die neue 3D-Funktion allerdings nur mit einem Satz vertreten.
Hier beschreibt Apple die jüngste Erweiterung der seit Jahren aggressiv vorangetriebenen Augmented-Reality-Anstrengungen des Konzerns folgendermaßen: „Verwandeln Sie eine Reihe von 2D-Bildern in ein fotorealistisches 3D-Objekt, das für AR optimiert ist – in nur wenigen Minuten.“
Genauer wird Apple in Sachen Objekterfassung dann in der WWDC-Videosession 10076. Unter der Überschrift „Create 3D models with Object Capture“ gehen die Apple-Ingenieure Michael Patrick Johnson und Dave McKinnon hier auf die Details ein, die bedacht werden müssen um nur mit Mac und iPhone bewaffnet nahezu perfekte 3D-Modelle zu erstellen.
Modell-Erstellung benötigt zahlreiche Fotos
Was hier als erstes auffällt: Die Anzahl der Fotos, die für vorzeigbare Ergebnisse benötigt werden, ist massiv. Im Video beschreiben die Apple-Entwickler das Beispiel eines Turnschuhs, der über 120 mal mit einem iPhone 12 Pro Max abgelichtet wurde, um über ausreichen Fotos für die programmatische Erstellung des 3D-Modells zu verfügen.
Welche Ergebnisse hier unter Alltagsbedingungen möglich sind, zeigt iOS-Entwickler Matt Waller am Beispiel einer Yoda-Stoffpuppe.
Mit Hilfe von 85 Schnappschüssen und den von Apple bereitgestellten Werkzeuge zur Modell-Erstellung hat Waller ein Augmented-Reality-Modell der Puppe erstellt, das erstaunlich detailreich, hochaufgelöst und nahezu nahtlos frei im Raum rotiert und skaliert werden kann.
Die so erstellte, knapp 15 Megabyte große .usdz-Datei hat Matt Waller über sein Dropbox-Konto zum Download bereitgestellt. Welche Schritte vom ersten Fotos bis zum fertigen Modell nötig waren, beschreibt der Entwickler in diesem Blog-Eintrag.