iphone-ticker.de — Alles zum iPhone. Seit 2007. 18 999 Artikel
   

Hinweise im Code: Sprachgesteuerter Assistent im iOS 5 ?

Artikel auf Google Plus teilen.
9 Kommentare 9

Gerade nach unserem mit Vorfreude geschwängerten Artikel „Stimmerkennung und Sprach-Interaktion: Die Kirschen auf dem iOS 5-Kuchen“ hat uns die zur WWDC ausgebliebene Ankündigung einer überarbeiteten Spracherkennung im iOS 5 ziemlich enttäuscht. eMails im Laufen diktieren, eine Google-ähnliche Spracherkennung für System-Befehle und die Aussicht auf eine endlich mal fehlerfreie Rufnummern-Eingabe über das iPhone-Headset wären mehr als willkommene Ergänzungen zu den sonst vorgestellten iOS 5-Funktionen gewesen.

Möglicherweise zaubert Apple in Sachen Spracherkennung jedoch noch ein „One more Thing“ aus dem Hut. So finden sich in der aktuellen iOS Beta nun erstmals klare Hinweise auf die Systemweite Integration einen sprachaktivierten Assistenten. Die folgenden Textzeile im Code der iOS-Entwicklungsumgebung laden zu Spekulationen ein:

Der „Assistent“ nutzt Deine Spracheingabe und zusätzliche Informationen wie die Namen deiner Kontakte, Song-Titel und Positionsdaten um Deine Anfragen zu verstehen. Diese Daten werden zur Verarbeitung direkt zu Apple geschickt und helfen dabei Apples Produkte und Dienstleistungen zu verbessern.

Im April 2010 erwarb Apple das Startup „Siri“ (wir berichteten), eine kleine Software-Firma die bis dato nur ein Produkt lieferte: Einen persönlichen, komplett Sprachgesteuerten Assistenten – klingt uninteressant, kann und sollte jedoch in diesem Youtube-Video bestaunt werden.

Gespannt? Wir empfehlen die Abstecher zu diesen Artikeln:

  • 29. März: Stimmerkennung und Sprach-Interaktion: Die Kirschen auf dem iOS 5-Kuchen
  • 16. Mai : Konzeptvideo: Sprach-Interaktion im iOS 5
  • 13. Juni : 200 neue Funktionen und ein stilles Extra? Die iOS 5-Spracherkennung lässt sich blicken

via macrumors

Samstag, 23. Jul 2011, 14:30 Uhr — Nicolas
9 Kommentare bisher. Dieser Unterhaltung fehlt Deine Stimme.
Rede mit!
  • Sehr interessant ich mache mir heute die beta 3 drauf und dann delta update freu mich schon ( I LOVE APPLE )

  • Das youtube-Video sieht echt gut aus, wenn das so optimal klappen sollte. Am beeindruckendsten fand ich die Kontexterkennung und die „Take me drunk I´m home“ Korrektur ;)
    Es wird sicherlich in der Praxis nicht so gut funktionieren wie in dem Video, aber auf jeden Fall ein nice to have Ding ^^

  • Wie groß war der Aufschrei, als herauskam, dass Dragon Dictation das Adressbuch an einen Server schickt, um die Spracheingabe zu verbessern. Apple macht dasselbe + Musiksammlung etc., und es wird als bahnbrechendes Feature gefeiert.

  • Wie der Originalartikel schon schreibt würde es mich überhaupt nicht wundern wenn das Feature iPhone 5 (und vielleicht noch iPad 2) exklusiv ist.

  • Nice, aber gibt es eigentlich auch schon heute. Schaut euch mal Dragon Search (gratis im App Store) an. Damit gehen die meisten Beispiele schon heute. Zugegeben das mit dem „betrunken nach hause“ Beispiel funktioniert so nicht, aber wenn man einfach »Taxi« sagt (bei eingeschalteter Ortungsfunktion der App) bekommt man ein vergleichbares Ergebnis.

  • Warum muss ich dabei an iButler denken?
    Wäre das nicht eine coole Erweiterung?

  • Redet mit. Seid nett zueinander!

    Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *

    ifun.de ist das dienstälteste europäische Onlineportal rund um Apples Lifestyle-Produkte.
    Wir informieren täglich über Aktuelles und Interessantes aus der Welt rund um iPad, iPod, Mac und sonstige Dinge, die uns gefallen.
    Insgesamt haben wir 18999 Artikel in den vergangenen 3316 Tagen veröffentlicht. Und es werden täglich mehr.
    ifun.de — Love it or leave it   ·   Copyright © 2016 aketo GmbH   ·   Impressum   ·   Datenschutz   ·   Auf dieser Seite werben aketo GmbH Powered by SysEleven