iphone-ticker.de — Alles zum iPhone. Seit 2007. 43 169 Artikel

Längere Antworten, fundierte Erklärungen

Siri 2.0: Erste Funktionsdetails zur neuen Generation in iOS 26.4

Artikel auf Mastodon teilen.
43 Kommentare 43

Dass Apple seine nächste Siri-Generation gemeinsam mit Google entwickelt und dabei auf Gemini als technische Basis setzt, wurde in dieser Woche offiziell bestätigt. Nun folgen konkrete Hinweise darauf, wie sich Siri 2.0 im Alltag verhalten soll.

Siri Anfrage Tippen Small

Ein aktueller Bericht des US-Mediums The Information beschreibt erstmals detailliert, welche Funktionen Apple mit dem Start von iOS 26.4 ab dem Frühjahr freischalten will und welche Fähigkeiten später folgen sollen.

Gespräche, Wissen und praktische Unterstützung

Im Mittelpunkt steht eine deutlich ausgebautere Dialogfähigkeit. Siri soll Wissensfragen nicht mehr nur kurz beantworten, sondern Zusammenhänge erklären und Rückfragen einbeziehen können. Auch längere erzählerische Antworten sind vorgesehen, etwa wenn Nutzer um Erklärungen oder zusammenhängende Darstellungen bitten. Zusätzlich soll Siri in bestimmten Situationen unterstützend reagieren können, etwa mit aufmunternden oder einordnenden Antworten.

Praktisch wird die neue Version vor allem bei Alltagsaufgaben. Genannt werden Funktionen wie das Buchen von Reisen oder das strukturierte Sammeln von Informationen. Siri kann Inhalte direkt in Apps anlegen, etwa ein Rezept oder eine Checkliste in der Notizen-App, ohne dass Nutzer selbst zwischen Anwendungen wechseln müssen.

Persönlicher Kontext und Ausblick auf spätere Updates

Ein zentrales Element von Siri 2.0 ist das stärkere Verständnis persönlicher Zusammenhänge. Die Sprachassistenz soll Informationen aus verschiedenen Apps miteinander kombinieren können. So lassen sich etwa Fragen zu Reiseplänen beantworten, indem Daten aus E-Mails, Nachrichten und Kalendereinträgen gemeinsam ausgewertet werden. Apple hatte entsprechende Funktionen bereits früher beworben, nun gelten diese als fester Bestandteil der ersten Ausbaustufe.

Siri Persoenliches Wissen

Darüber hinaus soll Siri künftig frühere Gespräche berücksichtigen und daraus lernen. Auf dieser Basis sind auch proaktive Vorschläge geplant, etwa Hinweise auf Termine oder Aufgaben, die sich aus vorhandenen App-Daten ergeben. Nicht alle diese Funktionen werden jedoch sofort verfügbar sein. Laut The Information verschiebt Apple einzelne Fähigkeiten auf spätere Systemversionen, teils bis iOS 27. Zum Start mit iOS 26.4 (wohl im April) steht damit vor allem der erste praktische Eindruck von Siri 2.0 im Fokus.

14. Jan. 2026 um 08:54 Uhr von Nicolas Fehler gefunden?


    43 Kommentare bisher. Dieser Unterhaltung fehlt Deine Stimme.
  • Wenn wie derzeit nur 50-70% der AI generierten Antworten korrekt sind, und neuer Content im Internet (Blogeinträge, Zeitungsartikel, Videos etc.) auf dieser Basis erstellt wird, dauert es nicht mehr lange bis das Internet nicht mehr zu gebrauchen ist. Quasi eine fehlerhafte Selbstreferenzierung. Kurzgesagt hat dazu ein gutes neues Video.

  • Hoffen wir mal dass das LLM dann aber direkt in der Apple Infrastruktur läuft und Google keinen Zugriff hat…

  • Eines ist verlässlich: „diese Funktion wird in einem späteren Update kommen“, ist anscheinend Teil der Apple Firmengrundsätze geworden

  • Die interessanten Funktionen wären aber die, die erst durch vertrauenswürdige (!) Zugriffe auf meine Apple-Daten und echte Agent- oder Assistenzfunktionen möglich werden:

    „Ich habe im Kalender gesehen, du hast einen Vortrag in Frankfurt am 5. April zugesagt. Dafür gäbe es diese beiden Reisevarianten, die deinen Vorlieben entsprechen und diese drei Hotels sind frei. Dein Lieblingshotel ist dabei, aber an dem Tag außergewöhnlich teuer. Schau dir bitte meine Vorschläge an, gib mir deine Ergänzungswünsche und sag, ob ich dir eine Variante komplett buchen soll. Ist deine Präferenz immer noch lieber stornierbar als möglichst preiswert?“

    Alle Daten sind in der Regel in der iCloud und ein paar Apps da (Kalender, Mail, DB, Flugplaner …).

    Ich bin gespannt, ob die konkrete Integration das Vertrauen in die sorgsame Verwendung der Daten dann auch durch Google unterstützt und ich bereit wäre, diesem System alle diese Daten dann auch zu öffnen – oder Google in der Konfiguration dann lieber aussperre …

    • Das ist ein weit verbreitetes Missverständnis: Der Hersteller/Entwickler eines Sprachmodells hat nicht nur deshalb, weil er der Entwickler ist, Zugriff auf die Daten. Ein von Google entwickeltes Sprachmodell kann sowohl lokal auf einem Gerät laufen (das sind dann in der Regel die kleineren Modelle), aber auch auf Servern anderer Hersteller, zum Bespiel Apple. In beiden dieser Fälle hat Google als Hersteller dann keinen Zugriff auf die Daten. Und ich gehe davon aus, dass es Apple genau so wie beschrieben (Kombination aus lokal und Apple-Servern) implementieren wird.

  • Selbst jetzt ließt man es werden Funktionen nach hinten verschoben. Oh man

  • Bin ja mal gespannt, ob wir das Sprachmodell an sich nur auf neueren Geräten wie dem iPhone 15 Pro und neuer erleben können oder ob auch z.B. ein Homepod Mini der aktuellen Generation eine erweitere Gesprächslogik mit einem auf dem Serve laufenden Sprachmodell bekommt.

  • Ich wäre schon glücklich wenn ich mal sagen kann „Siri, schließe die Rollläden in Küche und Esszimmer und schalte das Licht im Wohnzimmer auf 50%“.

    • Mit etwas leichter Verzögerung kann man das doch. Wenn du den ersten Befehl gesagt hast, und der durchgeführt wird, kannst direkt den nächsten sagen ohne Siri neu aufzurufen.

      • Das ist doch doof. Befehle verunden muss gehen. Und wird es Gottseidank mit der neuen Siri auch.

      • nicht an den Homepods, da hört siri nach einem Kommando auf, zuzuhören – nur mal so nebenbei ;)
        Nervt mich tierisch. Wer will schon ständig sein handy zu Hause nutzen:
        Hat man daa uch noch hey siri an, labern dich sofort beide Geräte voll, wenn sie dich hören und nein, ich leg mein iphone nicht auf’s Display. Es steht auf einem Magnetständer – will ja auch mal draufgucken können, ohne es umdrehen zu müssen.

  • Im der EU dann, mit starken Einschränkungen, ab 2031 verfügbar XD

  • Weis man, welche Hardware vorausgesetzt wird? Das gewisse Funktionen nur auf Geräten laufen die auch AI unterstützen ist klar, aber wird mir mein HomePod dann immer noch sagen, dass sie verschiedene Informationen im Web gefunden hat, und ich sie auf dem iPhone nochmal bitte soll? Wenn Siri auf Google-Modelle in der Cloud zurückgreift, sollte es ja auf allen Siri Geräten möglich sein etwas mehr Konversation zu führen.

  • Was uns schon alles versprochen wurde. Meine Erwartungen sind gering (sagt man das so, klingt irgendwie komisch das so zu lesen :D)

  • Wenn eh alles am Ende über die Server läuft, müsste dann ja das neue Siri auch auf den altgeräten funktionieren.

    Es sei denn Apple arbeitet quasi an der geplanten Obsoleszenz und nicht an ai

    • bei Apple? No Way! ;) :p
      Außerdem läuft ja nicht alles über’s internet / server – genau darum geht es ja.

    • Für die Altgeräte gibt es keine Updates mehr.
      Geräte mit Updates haben bisher immer Zugriff auf neue Cloud Funktionen bekommen.
      Cloud Lösungen sind wie bisher mit Abo Kosten verbunden.
      Ich hoffe auf eine Art AI und Home Basis, die Cloud Kosten reduziert aber auch für ältere Geräte AI Funktionen frei schaltet.

      • Es gibt keine Abokosten.
        Es läuft lokal. Nur einige Dinge nicht. Solange man das nicht steuern kann, wird es kein Abo geben.

  • Wenn man wirklich so wie im Beispielbild Siri zu Inhalten aller Apps, Nachrichten und emails schnell mal befragen kann und wenn die Steuerung aller Smart-Geräte zuverlässig funktioniert – dann wäre ich sehr glücklich über diese neue Siri.

    Ich brauche keine Wissensdatenbank und keine KI, die mir irgendwelche Rezepte erstellt. Aber eine gute lokale Suchfunktion wäre fein.

  • Immerhin hab ich lang genug gelebt das ich noch miterleben durfte wie aus „Hey, Siri“ nur noch „Siri“ wurde! Ein Quantensprung von dem meine Enkel noch erzählen werden!

  • Es sollte den Leistungsumfang bieten, das Google auf seinen Pixel anbietet. Am besten bis zum Jahresende. Was dann alles noch kommt, abwarten. Interessant ist es, wie sich Appel zukünftig mit einer völlig eignen KI auf dem Markt positioniert, wenn das überhaupt noch das Ziel ist.

  • Bin gespannt, die Testphase für developer steht dann ja kurz bevor. Ich bin aber auch eher pessimistisch, dass das neue SIRI gleich ein großer Wurf wird.
    Meine Bedenken:

    Sprache – wird wohl nur englisch von Anfang an (gut) unterstützen
    EU – macht der „Digital Act“ Probleme, wird die EU „mitspielen“?

  • Redet mit. Seid nett zueinander!

    Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

    ifun.de ist das dienstälteste europäische Onlineportal rund um Apples Lifestyle-Produkte.
    Wir informieren täglich über Aktuelles und Interessantes aus der Welt rund um iPhone, iPad, Mac und sonstige Dinge, die uns gefallen.
    Insgesamt haben wir 43169 Artikel in den vergangenen 6710 Tagen veröffentlicht. Und es werden täglich mehr.
    ifun.de — Love it or leave it   ·   Copyright © 2026 aketo GmbH   ·   Impressum   ·      ·   Datenschutz   ·   Safari-Push aketo GmbH Powered by SysEleven