Transparenz-Probleme
Stress-Test: Der Porträt-Modus des iPhone 7 Plus
Abgesehen vom größeren Display und dem kraftvolleren Akku wirbt das iPhone 7 Plus in diesem Jahr vor allem mit zwei Kamera-Funktionen um potentielle Käufer: Dem optischen 2x-Zoom, der über das integrierte Tele-Objektiv realisiert wird und dem Porträt-Modus mit Schärfentiefe-Effekt.
Letzteren hatte Apple zur Vorstellung der neuen Geräte-Generation zwar noch nicht im Kasten, bietet seit der Freigabe von iOS 10.1 nun aber immerhin eine erste Beta-Version des experimentellen Features an, die sich alle iPhone 7 Plus-Besitzer aus dem Netz laden und im Alltagseinsatz ausprobieren können.
Apple schreibt:
Mit der Schärfentiefe kannst du Gesichter scharf aufnehmen, während im Hintergrund ein Unschärfeeffekt entsteht. Wenn du ein Foto mit dem iPhone 7 Plus machst, nutzt das Dual-Kamerasystem beide Kameras und fortschrittliches maschinelles Lernen, damit dein Motiv gestochen scharf ist, während im Hintergrund der gleiche Unschärfeeffekt – bekannt als Bokeh-Effekt – erzeugt wird, der normalerweise bei einer Spiegelreflexkamera entsteht. Es ist also egal, wie der Hintergrund aussieht, deine Porträts sehen ganz einfach gut aus.
Ein Versprechen, dem Brian Moore jetzt im Rahmen seines Stress-Tests auf den Grund gegangen ist. Moore wollte wissen, welche Grenzen der neuen Foto-Funktion gesetzt sind: Welche Motive bringen die Automatik durcheinander (schaut euch nur die links und rechts weichgezeichnete Schnur des Affen in unserem Header-Bild an)? Wie geht Apples Schärfentiefe-Funktion mit Aufnahmen um, die mehr als eine Person im Bildvordergrund abbilden.
Brian Moore zeigt: Schärfentiefe-Funktion und transparente Objekte
Eine spannende und reichlich bebilderte Bestandsaufnahme, die ihr euch hier zu Gemüte führen könnt.
While a lot is super good, there are a couple areas where the Portrait Mode just ain’t gonna cut it. Complicated foreground and background combinations seemingly overwhelm it and the blur edges get confused throughout the photo. Portrait Mode doesn’t even begin to successfully work with translucent or shiny objects. Though this is pretty understandable considering the hardware — attempting to detect depth on objects like these is probably difficult. Not sure if Apple will ever be able to get over this one unless their machine learning becomes near-perfect.