Einsatz in Nachrichten und Anrufen
Vor dem Start in Deutschland: Apple erklärt Live-Übersetzungen
Mit der Freigabe von iOS 26.2 werden die sogenannten Live-Übersetzungen in wenigen Tagen auch in Deutschland verfügbar sein. Apple erläutert deren Funktionsweise nicht nur in einem Support-Dokument, sondern auch in einem neuen Anleitungsvideo, das der Konzern auf der Kurznachrichtenplattform X veröffentlicht hat.
Die Live-Übersetzungen ergänzen die automatischen Übersetzungen die bereits in Nachrichten funktionieren, bei gewöhnlichen Telefonaten und während laufender FaceTime-Gespräche. Voraussetzung ist ein kompatibles iPhone mit Apple Intelligence.
In der Nachrichten-App lässt sich die Übersetzung direkt in einem bestehenden Chat aktivieren. Die App schlägt die erkannten Sprachen vor oder lässt eine manuelle Auswahl zu. Übersetzte Texte erscheinen bereits während der Eingabe und werden parallel zum Original verschickt. Eingehende Nachrichten werden ebenfalls in die eigene Sprache übertragen.
Übersetzungen in Nachrichten: Funktioniert auch auf dem Mac
Bei Telefonaten wird sich die Funktion über das Menü im laufenden Gespräch einschalten lassen. Beide Seiten werden darüber informiert, dass der Anruf automatisch übersetzt wird. Das iPhone gibt die übersetzten Inhalte als gesprochenen Text wieder. Zusätzlich erscheint auf dem Display eine fortlaufende Transkription. Die gleichen Abläufe gelten für Videoanrufe über FaceTime, bei denen die Übersetzungen als eingeblendete Untertitel im Bild erscheinen.
AirPods übersetzen Gespräche in Echtzeit
Auch persönliche Gespräche können in Echtzeit übersetzt werden. Apple setzt dafür auf die AirPods Pro der zweiten Generation, die AirPods Pro der dritten Generation sowie die AirPods 4 mit aktiver Geräuschunterdrückung. Die Einrichtung erfolgt in der Übersetzen App. Nach Auswahl der gewünschten Sprachen lädt das iPhone die benötigten Modelle und startet die Übersetzung. Während eines Gesprächs erzeugt das Gerät sowohl eine gesprochene Übersetzung als auch eine Textfassung auf dem Bildschirm.
Voraussetzung sind aktualisierte AirPods und ein iPhone mit Apple Intelligence. Apple weist darauf hin, dass die Berechnung der Übersetzungen lokal erfolgt. Die Funktion wird mit iOS 26.2 freigeschaltet. Unterstützt werden zum Start unter anderem Deutsch, Englisch, Französisch, Spanisch, Italienisch, Japanisch, Koreanisch, Portugiesisch und Chinesisch.


Nur die AirPods, oder auch das neueste iPhone erforderlich?
Das iPhone muss Apple Intelligence fähig sein, sprich ab iPhone 15Pro/15 Pro Max aufwärts.
Super iPhone 14 Pro außen vor. Echt unsinnig diese Logik
Hierbei geht es nicht um Logik, sondern Leistungsfähigkeit. In diesem Falle des Prozessors des IPhone 14.
Nene, geht schon darum neue iPhones zu verkaufen. ;)
Spannend wäre zu wissen, ob die Sprache synthetisiert wird (also Siri-Stimme) oder ob das so gut funktioniert, dass ich den Text meines Gegenübers in dessen Tonlage erhalte ;-)
Das glaube ich nicht.
Jedenfalls noch nicht…
Was mich allerdings interessiert ist, was passiert, wenn ich jemand quasi ohne Pause spricht.
Wird erst alles am Schluss alles übersetzt oder gibt es auch zwischendurch eine Übersetzung?
Die Stimme in dem Museum (aus dem Video) hat ja nur ein kurzes Statement gegeben.
Hört man doch im Video:
Ist die Siri-Stimme.
ist voreingestellte Siri stimme, EN->DE funktioniert tadellos…
Öffne die Übersetzen App, wähle Konversation, wähle die zu übersetzen es Sprache aus, verfasse einen Text, idealerweise per Spracheingabe, und drücke den Play Button. Genau der Prozess wird automatisiert bei Live-Übersetzung angestoßen, nicht mehr oder weniger.
Ich dachte, bei Veröffentlichung von iOS26, gelesen zu haben, dass diese Funktion mit den AirPods nicht in der EU verfügbar wäre. …habe ich mich wohl geirrt.
War ja auch so
Mit 26.2 aber schon
Warum übersetzen sie z.B. YouTube nicht direkt?
Das wäre mal was :) 1+
YouTube unterstützt das nativ.
Guten Tag miteinander, Frage, weiss jemand ob es auch mit dem iPad Pro 2022 geht? Dort ist ja Apple intelligent auch darauf? Danke Gruss Schlabi
Nein, Live Translation gibt es nur mit iPhones (15 Pro oder ab 16 alle) in Verbindung mit AirPods 4, Pro2 oder Pro3.
Jemand sollte mal aufzeigen was alles nicht funktioniert: In meinen Tests sind Sprechpausen zwingend notwendig, weil die Übersetzung lange Sätze zwar packt, aber das ist ein unrealistisches Szenario mit einem Gegenüber.
Auch das Fortsetzen der Live Übersetzung scheint nicht automatisch und gut zu laufen, also Fazit: Ich verheddere mich mehr mit Blick auf iPhone um zu checken was wurde übersetzt, was nicht, warum nicht und was hab ich falsch gemacht. Nette Idee, aber da fehlen ein paar Verbesserungen.
Das steckt alles noch in den Kinderschuhen, so ist das halt. In ein paar Jahren wird das ganz natürlich funktionieren
„Zusätzlich erscheint auf dem Display eine fortlaufende Transkription.“
Gilt das für beide Seiten? Also wird meinem Gesprächspartner meine Transkription übertragen und auch angezeigt?
Oder wird ihm nur seine eigene Transkription angezeigt, falls er ein aktuelles iPhone mit Apple Intelligence hat?
beides wird mit Sprechblasen wie ein Chat angezeigt
Naja Echtzeit ist es nicht sind schon 2-3 Sekunden Delay
Mir wäre ja lieb, würde Apple mit 26.2 das versprochene Update für die Nachrichten-App auf RCS 3.1 bringen. Das dauert ja ewig, bis die neuen Funktionen kommen, und ich meine, die hatten das schon im April/Mai offiziell angekündigt.
Der Babelfisch ist endlich da, so schnell wird Science-Fiction real. Schade, dass Douglas Adams das nicht mehr erleben darf…..
Der sitzt am Rande des Universums in einem Restaurant und sieht zu. 42 du ungläubiger haha
Ja wirklich. Jetzt sind wir in der Zukunft angekommen!
Ich bin gespannt, ob das praktikabel ist. Ich war schon in Gerichtsterminen mit Simultandolmetschern und das war hart anstrengend, wenn zwei gleichzeitig reden. Noch schlimmer ist es, wenn man die übersetzte Sprache auch ein bisschen versteht. Dann hat man die deutsche Tonspur leicht versetzt zu der originären, die der Kopf auch versucht gleichzeitig zu übersetzen.
Was ist eigentlich mit dem Gesprächspartner – is ja schön und gut, wenn ich ihn verstehe, aber andersrum ist ja auch nicht gerade irrelevant.
Das ist sein Problem (sofern er nicht auch mind. iPhone 15pro und entspr. AirPods hat)
Du kannst ihm Dein iPhone hinhalten, so dass er die Konversation live mitlesen kann. Dort werden beide Personen/Reden im Chat dargestellt, mit Sprechblasen. Du selbst kannst zur Kontrolle mitlesen, hast aber ja Siri im Ohr, deshalb brauchst Du selbst die Textdarstellung eigentlich nicht…
kommen da noch arabische Sprachen und russisch dazu? Dann würde ich hier in der Bahn auch mal was mitbekommen :-)
Ich bin im ÖPNV froh über jeden, dessen Gesabbel ich nicht verstehe.