Massive ARKit-Verbesserungen ab 2019
Bloomberg: iPhone-Rückseite zukünftig mit 3D-Sensor
Bis zur Integration des neuen Kamera-Moduls sollen zwar noch rund zwei Jahre vergehen, doch schon jetzt arbeiten Apples Ingenieure an einem neuen 3D-Sensor, der auf der Rückseite zukünftiger iPhone-Modelle platziert, für eine detailliertere Erfassung der Umgebung sorgen soll.
Dies berichtet die Finanznachrichten-Agentur Bloomberg unter Berufung auf mit der Angelegenheit vertraute Quellen. Nachdem das iPhone X mit seiner nach vorne ausgerichteten TrueDepth-Kamera bereits die verlässliche Erkennung von Entfernungen bietet, soll auch die Rückseite des Gerätes zukünftig detaillierte Umgebungseindrücke sammeln können.
Laut Bloomberg will Apple das räumliche Sehvermögen des iPhones jedoch mit einer anderen Technik realisieren als der, die momentan in der Gesichtserkennung Face ID zum Einsatz kommt. Statt auf 30.000 Licht-Punkte zu setzen, die Face ID beim Kartografieren der (Gesichts)-Oberfläche helfen, soll die Rückkamera zukünftiger iPhone-Modelle auf eine Laufzeitmessung setzen:
[…] The existing system relies on a structured-light technique that projects a pattern of 30,000 laser dots onto a user’s face and measures the distortion to generate an accurate 3-D image for authentication. The planned rear-facing sensor would instead use a time-of-flight approach that calculates the time it takes for a laser to bounce off surrounding objects to create a three-dimensional picture of the environment.
Die neuen 3D-Sensoren sollen langfristig dabei helfen die Funktionsweise der ARKit-Applikationen optimieren, die schon jetzt in der Lage sind Oberflächen zu erkennen, zu vermessen und virtuelle Objekte auf diesen zu platzieren.