In den AirPods-Einstellungen
Neu in iOS 16: Personalisiertes 3D-Audio mit Ohren-Scan
Hinter euch im Raum fällt ein Glas zu Boden. Obwohl ihr eure Augen gerade ganz woanders hattet, könnt ihr binnen Sekundenbruchteilen jedoch eindeutig zuordnen, ob das Glas eher links oder eher rechts hinter euch zu Bruch gegangen ist. Warum?
Individuelle Kopfform wird erfasst
Grob vereinfacht macht sich das Gehirn unter anderem die Laufzeitverzögerungen zu Nutze, die das Schallereignis benötigt, um bei euren Ohren anzukommen. Ging das Glas eher links hinter euch zu Bruch erreicht das Klirren zuerst das linke und dann das rechte Ohr. Die wenigen Millisekunden Differenz reichen dem Gehirn dann schon aus, um die ungefähre Position der Geräuschquelle zu ermitteln.
Neue Situation: Jetzt habt ihr Kopfhörer auf, die euch mit dem 3D-Klang eines zu Bruch gehenden Glases überraschen wollen. Wie lässt ich dessen virtuelle Position im Klang Punktgenau festlegen? Hier kann man sich zwar ungefähr der menschlichen Wahrnehmung annähern, würde aufgrund der vielen unterschiedlichen Kopfformen aber nie genau die individuelle Wahrnehmung eines jeden Anwenders treffen. Dies will Apple mit iOS 16 ändern.
In den AirPods-Einstellungen
In den Einstellungen der AirPods-Kopfhörer hat das neue Betriebssystem dafür nun einen neuen Bereich integriert, der die Konfiguration von personalisiertem 3D-Audio zulässt.
Dafür scannt das Face-ID-Modul aktueller iPhone-Modelle nicht nur das Gesicht seines Besitzers, sondern auch die Ohren des iPhone-Nutzers, um auf Grundlage der so ermittelten Werte ein exaktes Akustik-Modell erstellen zu können und letztlich die Möglichkeit zu haben 3D-Klänge deutlich individueller als bislang ausliefern zu können.
Es ist davon auszugehen, dass Apple sich hier die sogenannte Head-Related Transfer Function zunutze macht. Wie hörbar die Auswirkungen der neuen Funktion sind, muss jedoch noch abgewartet werden.