Einsatz in Nachrichten und Anrufen
Vor dem Start in Deutschland: Apple erklärt Live-Übersetzungen
Mit der Freigabe von iOS 26.2 werden die sogenannten Live-Übersetzungen in wenigen Tagen auch in Deutschland verfügbar sein. Apple erläutert deren Funktionsweise nicht nur in einem Support-Dokument, sondern auch in einem neuen Anleitungsvideo, das der Konzern auf der Kurznachrichtenplattform X veröffentlicht hat.
Die Live-Übersetzungen ergänzen die automatischen Übersetzungen die bereits in Nachrichten funktionieren, bei gewöhnlichen Telefonaten und während laufender FaceTime-Gespräche. Voraussetzung ist ein kompatibles iPhone mit Apple Intelligence.
In der Nachrichten-App lässt sich die Übersetzung direkt in einem bestehenden Chat aktivieren. Die App schlägt die erkannten Sprachen vor oder lässt eine manuelle Auswahl zu. Übersetzte Texte erscheinen bereits während der Eingabe und werden parallel zum Original verschickt. Eingehende Nachrichten werden ebenfalls in die eigene Sprache übertragen.
Übersetzungen in Nachrichten: Funktioniert auch auf dem Mac
Bei Telefonaten wird sich die Funktion über das Menü im laufenden Gespräch einschalten lassen. Beide Seiten werden darüber informiert, dass der Anruf automatisch übersetzt wird. Das iPhone gibt die übersetzten Inhalte als gesprochenen Text wieder. Zusätzlich erscheint auf dem Display eine fortlaufende Transkription. Die gleichen Abläufe gelten für Videoanrufe über FaceTime, bei denen die Übersetzungen als eingeblendete Untertitel im Bild erscheinen.
AirPods übersetzen Gespräche in Echtzeit
Auch persönliche Gespräche können in Echtzeit übersetzt werden. Apple setzt dafür auf die AirPods Pro der zweiten Generation, die AirPods Pro der dritten Generation sowie die AirPods 4 mit aktiver Geräuschunterdrückung. Die Einrichtung erfolgt in der Übersetzen App. Nach Auswahl der gewünschten Sprachen lädt das iPhone die benötigten Modelle und startet die Übersetzung. Während eines Gesprächs erzeugt das Gerät sowohl eine gesprochene Übersetzung als auch eine Textfassung auf dem Bildschirm.
Voraussetzung sind aktualisierte AirPods und ein iPhone mit Apple Intelligence. Apple weist darauf hin, dass die Berechnung der Übersetzungen lokal erfolgt. Die Funktion wird mit iOS 26.2 freigeschaltet. Unterstützt werden zum Start unter anderem Deutsch, Englisch, Französisch, Spanisch, Italienisch, Japanisch, Koreanisch, Portugiesisch und Chinesisch.


Nur die AirPods, oder auch das neueste iPhone erforderlich?
Das iPhone muss Apple Intelligence fähig sein, sprich ab iPhone 15Pro/15 Pro Max aufwärts.
Spannend wäre zu wissen, ob die Sprache synthetisiert wird (also Siri-Stimme) oder ob das so gut funktioniert, dass ich den Text meines Gegenübers in dessen Tonlage erhalte ;-)
Das glaube ich nicht.
Jedenfalls noch nicht…
Was mich allerdings interessiert ist, was passiert, wenn ich jemand quasi ohne Pause spricht.
Wird erst alles am Schluss alles übersetzt oder gibt es auch zwischendurch eine Übersetzung?
Die Stimme in dem Museum (aus dem Video) hat ja nur ein kurzes Statement gegeben.
Hört man doch im Video:
Ist die Siri-Stimme.
ist voreingestellte Siri stimme, EN->DE funktioniert tadellos…
Öffne die Übersetzen App, wähle Konversation, wähle die zu übersetzen es Sprache aus, verfasse einen Text, idealerweise per Spracheingabe, und drücke den Play Button. Genau der Prozess wird automatisiert bei Live-Übersetzung angestoßen, nicht mehr oder weniger.
Ich dachte, bei Veröffentlichung von iOS26, gelesen zu haben, dass diese Funktion mit den AirPods nicht in der EU verfügbar wäre. …habe ich mich wohl geirrt.
War ja auch so
Mit 26.2 aber schon
Warum übersetzen sie z.B. YouTube nicht direkt?