{"id":258483,"date":"2025-06-19T06:57:18","date_gmt":"2025-06-19T04:57:18","guid":{"rendered":"https:\/\/www.iphone-ticker.de\/?p=258483"},"modified":"2025-06-19T06:57:18","modified_gmt":"2025-06-19T04:57:18","slug":"neu-in-ios-26-speech-analyzer-bringt-spracherkennung-in-alle-apps","status":"publish","type":"post","link":"https:\/\/www.iphone-ticker.de\/neu-in-ios-26-speech-analyzer-bringt-spracherkennung-in-alle-apps-258483\/","title":{"rendered":"Neu in iOS 26: Speech Analyzer bringt Spracherkennung in alle Apps"},"content":{"rendered":"<p class=\"ai-optimize-6 ai-optimize-introduction\">Im Rahmen der WWDC 2025 hat Apple \u00fcber <a href=\"https:\/\/developer.apple.com\/wwdc25\/sessions-and-labs\/topics\">100 Entwickler-Sessions<\/a> ver\u00f6ffentlicht, in denen der Konzern die neuen Funktionen f\u00fcr iPhone, iPad, Mac und Apple Watch im Detail vorstellt. In dem 19 Minuten langen Video \u201eBring advanced speech-to-text to your app with Speech Analyzer\u201c geht es um eine neue Schnittstelle zur Spracherkennung, die allen interessierten Entwicklern zur Verf\u00fcgung stehen wird.<\/p>\n<p class=\"ai-optimize-14\"><a href=\"https:\/\/images.iphone-ticker.de\/wp-content\/uploads\/2025\/06\/sprach-transkription.png\"><img loading=\"lazy\" decoding=\"async\" class=\"aligncenter size-medium wp-image-258485\" src=\"https:\/\/images.iphone-ticker.de\/wp-content\/uploads\/2025\/06\/sprach-transkription-500x500.png\" alt=\"Sprach Transkription\" width=\"500\" height=\"500\" srcset=\"https:\/\/images.iphone-ticker.de\/wp-content\/uploads\/2025\/06\/sprach-transkription-500x500.png 500w, https:\/\/images.iphone-ticker.de\/wp-content\/uploads\/2025\/06\/sprach-transkription-700x700.png 700w, https:\/\/images.iphone-ticker.de\/wp-content\/uploads\/2025\/06\/sprach-transkription-150x150.png 150w, https:\/\/images.iphone-ticker.de\/wp-content\/uploads\/2025\/06\/sprach-transkription-1536x1536.png 1536w, https:\/\/images.iphone-ticker.de\/wp-content\/uploads\/2025\/06\/sprach-transkription.png 1939w\" sizes=\"auto, (max-width: 500px) 100vw, 500px\" \/><\/a><\/p>\n<h2 class=\"ai-optimize-6\">Transkription f\u00fcr Drittanbieter<\/h2>\n<p class=\"ai-optimize-7\"><a href=\"https:\/\/developer.apple.com\/videos\/play\/wwdc2025\/277\/\">Mit dem Speech Analyzer<\/a> bietet Apple eine neue API, die Spracheingaben in Text umwandeln und gleichzeitig zeitlich exakt zuordnen kann. Anders als bei der bisherigen L\u00f6sung funktioniert die Analyse nun asynchron und speichert zeitgenaue Informationen zu jedem Wort oder Satz.<\/p>\n<p class=\"p1 ai-optimize-12\">Die neue Schnittstelle funktioniert wie ein Baukasten, mit dem sich verschiedene Funktionen zur Spracherkennung zusammenstellen lassen. Herzst\u00fcck ist ein Modul, das gesprochene Sprache erkennt und in geschriebenen Text umwandelt. Entwickler k\u00f6nnen damit festlegen, wie die App den Ton aufnimmt und wie die Ergebnisse angezeigt oder weiterverarbeitet werden. Dabei laufen Aufnahme und Auswertung getrennt voneinander, sodass die App fl\u00fcssig reagieren kann.<\/p>\n<p class=\"ai-optimize-15\"><a href=\"https:\/\/images.iphone-ticker.de\/wp-content\/uploads\/2025\/06\/speech-analyzer-faehigkeiten-scaled.jpg\"><img loading=\"lazy\" decoding=\"async\" class=\"aligncenter size-large wp-image-258486\" src=\"https:\/\/images.iphone-ticker.de\/wp-content\/uploads\/2025\/06\/speech-analyzer-faehigkeiten-700x363.jpg\" alt=\"Speech Analyzer Faehigkeiten\" width=\"700\" height=\"363\" srcset=\"https:\/\/images.iphone-ticker.de\/wp-content\/uploads\/2025\/06\/speech-analyzer-faehigkeiten-700x363.jpg 700w, https:\/\/images.iphone-ticker.de\/wp-content\/uploads\/2025\/06\/speech-analyzer-faehigkeiten-500x259.jpg 500w, https:\/\/images.iphone-ticker.de\/wp-content\/uploads\/2025\/06\/speech-analyzer-faehigkeiten-1536x796.jpg 1536w, https:\/\/images.iphone-ticker.de\/wp-content\/uploads\/2025\/06\/speech-analyzer-faehigkeiten-2048x1062.jpg 2048w\" sizes=\"auto, (max-width: 700px) 100vw, 700px\" \/><\/a><\/p>\n<h2 class=\"ai-optimize-9\">Lokale Analyse auf dem Ger\u00e4t<\/h2>\n<p class=\"ai-optimize-10\">Apple stellt daf\u00fcr ein neues, lokal nutzbares Sprachmodell zur Verf\u00fcgung, das laut Cupertino speziell f\u00fcr l\u00e4ngere Sprachabschnitte wie Vorlesungen, Gespr\u00e4che oder Notizen ausgelegt ist. Die Modelle werden systemseitig verwaltet, aktualisieren sich automatisch und ben\u00f6tigen keinen zus\u00e4tzlichen Speicherplatz in der App. Das soll nicht nur die Privatsph\u00e4re verbessern, sondern auch die Einstiegsh\u00fcrden f\u00fcr Entwickler senken.<\/p>\n<p class=\"ai-optimize-13\"><a href=\"https:\/\/images.iphone-ticker.de\/wp-content\/uploads\/2025\/06\/speech-analyzer-scaled.jpg\"><img loading=\"lazy\" decoding=\"async\" class=\"aligncenter size-large wp-image-258484\" src=\"https:\/\/images.iphone-ticker.de\/wp-content\/uploads\/2025\/06\/speech-analyzer-700x379.jpg\" alt=\"Speech Analyzer\" width=\"700\" height=\"379\" srcset=\"https:\/\/images.iphone-ticker.de\/wp-content\/uploads\/2025\/06\/speech-analyzer-700x379.jpg 700w, https:\/\/images.iphone-ticker.de\/wp-content\/uploads\/2025\/06\/speech-analyzer-500x271.jpg 500w, https:\/\/images.iphone-ticker.de\/wp-content\/uploads\/2025\/06\/speech-analyzer-1536x832.jpg 1536w, https:\/\/images.iphone-ticker.de\/wp-content\/uploads\/2025\/06\/speech-analyzer-2048x1109.jpg 2048w\" sizes=\"auto, (max-width: 700px) 100vw, 700px\" \/><\/a><\/p>\n<p class=\"ai-optimize-11\">Wer eine App mit Transkriptionsfunktion entwickeln m\u00f6chte, kann so direkt auf die gleichen Grundlagen zugreifen, die Apple bereits in hauseigenen Anwendungen wie Notizen, Sprachmemos und dem Tagebuch nutzt. Auch eine Live-Transkription mit direkter Darstellung in der Benutzeroberfl\u00e4che ist m\u00f6glich, inklusive optionaler \u201efl\u00fcchtiger\u201c Vorab-Ergebnisse, die nachtr\u00e4glich durch verl\u00e4ssliche Endergebnisse ersetzt werden.<\/p>\n<p><div class=\"responsive-video\"><iframe loading=\"lazy\" title=\"WWDC25: Bring advanced speech-to-text to your app with SpeechAnalyzer | Apple\" width=\"500\" height=\"281\" src=\"https:\/\/www.youtube-nocookie.com\/embed\/0m6dimDDj8M?feature=oembed\" frameborder=\"0\" allow=\"accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share\" referrerpolicy=\"strict-origin-when-cross-origin\" allowfullscreen><\/iframe><\/div><\/p>\n<p><img loading=\"lazy\" decoding=\"async\" src=\"https:\/\/vg04.met.vgwort.de\/na\/9e3a9772061b47b38433c970ccf25a06\" width=\"1\" height=\"1\"  no-lazy class=\"tracking\"><\/p>\n","protected":false},"excerpt":{"rendered":"<a href=\"https:\/\/www.iphone-ticker.de\/neu-in-ios-26-speech-analyzer-bringt-spracherkennung-in-alle-apps-258483\/\"><img width=\"150\" height=\"150\" src=\"https:\/\/images.iphone-ticker.de\/wp-content\/uploads\/2025\/06\/speech-analyzer-faehigkeiten-150x150.jpg\" class=\"alignright tfe wp-post-image\" alt=\"Speech Analyzer Faehigkeiten\" decoding=\"async\" loading=\"lazy\" \/><\/a><p>Im Rahmen der WWDC 2025 hat Apple \u00fcber 100 Entwickler-Sessions ver\u00f6ffentlicht, in denen der Konzern die neuen Funktionen f\u00fcr iPhone, iPad, Mac und Apple Watch im Detail vorstellt. In dem 19 Minuten langen Video \u201eBring advanced speech-to-text to your app with Speech Analyzer\u201c geht es um eine neue Schnittstelle zur Spracherkennung, die allen interessierten Entwicklern [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":258486,"comment_status":"open","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[1],"tags":[1325,7131,119,6441,105],"class_list":["post-258483","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-news","tag-diktieren","tag-ios-26","tag-spracherkennung","tag-transkription","tag-wwdc"],"aioseo_notices":[],"featured_image":["https:\/\/images.iphone-ticker.de\/wp-content\/uploads\/2025\/04\/transkript-iphone-ios-18-4.jpg"],"subheadline":["Auf lange Texte und Vorlesungen ausgelegt"],"rest_api_enabler":{"featured_image":"https:\/\/images.iphone-ticker.de\/wp-content\/uploads\/2025\/04\/transkript-iphone-ios-18-4.jpg","subheadline":"Auf lange Texte und Vorlesungen ausgelegt"},"_links":{"self":[{"href":"https:\/\/www.iphone-ticker.de\/apiv2\/wp\/v2\/posts\/258483","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.iphone-ticker.de\/apiv2\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.iphone-ticker.de\/apiv2\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.iphone-ticker.de\/apiv2\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/www.iphone-ticker.de\/apiv2\/wp\/v2\/comments?post=258483"}],"version-history":[{"count":2,"href":"https:\/\/www.iphone-ticker.de\/apiv2\/wp\/v2\/posts\/258483\/revisions"}],"predecessor-version":[{"id":258488,"href":"https:\/\/www.iphone-ticker.de\/apiv2\/wp\/v2\/posts\/258483\/revisions\/258488"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.iphone-ticker.de\/apiv2\/wp\/v2\/media\/258486"}],"wp:attachment":[{"href":"https:\/\/www.iphone-ticker.de\/apiv2\/wp\/v2\/media?parent=258483"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.iphone-ticker.de\/apiv2\/wp\/v2\/categories?post=258483"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.iphone-ticker.de\/apiv2\/wp\/v2\/tags?post=258483"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}