Eigene KI-Suche als Ergänzung?
Drei Kernfunktionen: Die neue KI-Siri soll im Frühjahr starten
Apple arbeitet seit längerem an einer erweiterten Version von Siri, die enger mit persönlichen Inhalten auf iPhone, iPad und Mac verknüpft ist. Vorgesehen sind drei zentrale Funktionen.
Die erste ist der persönliche Kontext. Siri soll Informationen wie Termine, Nachrichten oder Dateien auf dem eigenen Gerät berücksichtigen, ohne dass Nutzer diese Inhalte bei neuen Fragen explizit anführen oder auf diesen verweisen müssen.
Kontext, App-Steuerung, Bildschirmerkennung
Die zweite Neuerung ist die Bildschirmerkennung „Onscreen Awareness“. Dabei erkennt der Assistent, was gerade auf dem Display zu sehen ist, und kann sich darauf beziehen. Als drittes Element kommt die direkte Steuerung von Apps über sogenannte App Intents hinzu. Aufgaben wie das Versenden einer Datei oder das Anlegen eines Termins sollen per Sprachbefehl erledigt werden können, ohne dass die jeweilige App manuell geöffnet wird.
Diese Funktionen waren ursprünglich für frühere iOS-Version vorgesehen. Technische Probleme führten jedoch dazu, dass Apple die interne Architektur von Siri neu aufbauen musste. Statt der bisherigen Systeme wird nun eine Infrastruktur auf Basis großer Sprachmodelle genutzt. In diesem Zusammenhang soll Apple auf Googles Expertise setzen und dafür bis zu eine Milliarde Dollar pro Jahr ausgeben. Die Verarbeitung wird jedoch über Apples Private Cloud Compute erfolgen, sodass die Inhalte der Anfragen nicht für andere Zwecke ausgewertet werden.
Eigene KI-Suche als Ergänzung?
Parallel zu den bekannten Siri-Funktionen entwickelt Apple eine eigene KI-Suchfunktion. Intern trägt sie den Namen „World Knowledge Answers“. Ziel ist es, Antworten auf komplexe Fragen direkt zu liefern, ähnlich wie bei spezialisierten KI-Suchdiensten. Diese Technik soll zunächst Teil von Siri werden und später auch in Safari und der Spotlight Suche verfügbar sein. Nutzer könnten dann zum Beispiel Zusammenfassungen oder erklärende Texte erhalten, ohne mehrere Webseiten öffnen zu müssen.
Interne Hinweise deuten darauf hin, dass sowohl die neuen Siri-Funktionen als auch die KI-Suche mit iOS 26.4 eingeführt werden. Diese Version wird nach bisherigen Zeitplänen im Frühjahr erwartet. Üblicherweise veröffentlicht Apple erste Testversionen einige Wochen vor dem finalen Start. Damit könnte ein Ausblick auf die überarbeiteten Siri-Funktionen bereits in wenigen Wochen möglich sein.


In der EU wieder nicht? Later next year :)
Steht schon fest, in welchem Jahr sie in Deutschland verfügbar sein wird? 2030?
Lassen wir uns überraschen. Bis jetzt war Ki (oder Ai) seitens Apple ja nur heiße Luft.
Um KI vernünftig zu nutzen, muss man auch eine gewisse natürliche Intelligenz besitzen. Sonst führt das häufig zu Fehlern. Apple schützt seine Benutzer hier vermutlich wieder.
indem sie es nicht zur Verfügung stellen :D :D
Das ist ziemlich falsch. Sie haben keine Chat-KI und keinen Bildgenerator.
Ansonsten gibt es bereits einiges.
Die haben doch Image Playground… AI halt.
KI ist nun mal mehr als ein GPT und da hat Apple schon früh auf KI gesetzt.
Servus, gibt es egtl. beim
aktuellen IOS noch die Möglichkeit Siri-Befehle per Tastatur einzugeben? Habe ich bei der vorherigen Version öfter genutzt aber jetzt finde ich diese Option leider nicht mehr unter Bedienungshilfen
Suche nach Siri Anfragen tippen. Dann kannst du unten zweimal auf den Rand tippen und deine Eingabe schreiben.
Danke, hab es gefunden, wird nicht mehr wie Online beschrieben unter Siri sondern im Menü unter Apple Intelligence & Siri angezeigt
Einfach zweimal unten auf den Swipe-up Balken tippen, dann kommt eine Siri Tastatur bei der du Anfragen senden kannst. Geht von überall aus
Nur zwei Jahre nach der Ankündigung.
Ist schon krass, wenn man sich damals wegen Tims ankündigungen damals deswegen ein neues iPhone gekauft hat.
Wer kauft denn Hardware, die in Zukunft Software können soll? Das ist Vaporware und hat noch nie funktioniert, auch nicht bei Apple.
Warum ist das Kaufgrund für so viele Leute? Ich verstehe es nicht. Wenn ein Produkt eine versprochene Leistung noch nicht aufweist, dann soll der Hersteller das Produkt halt kostenlos bereitstellen und ich zahle dann das Produkt sobald die Funktion kommt. Man wäre ja blöd wenn man sich auf was anderes einlässt als zahlender Kunde.
Viele iPhone Nutzer. Schau dir mal nur die Kommentare rund um jedes release des nächsten neuen iPhones an.
iOs 26.4? Wir sind doch noch nicht mal bei iOS 26.3.
26.3 Beta ist schon da
Es könnte sogar in iOS 26.5 kommen, obwohl wir noch in iOS 26.2 sind…
Frühjahr 2027?
Jetzt kommt erst einmal Frühjahr 2026
Ich würde mich ja darauf freuen wenn ich nicht in der EU leben würde. Da dauerte bestimmt wieder etwas länger.
Russland sucht noch junge Männer, falls du auswandern möchtest…
Ich würde einfach in die USA auswandern. Dann hast du Lebenswichtiges von Apple sofort.
Bin ich gespannt, dann lohnt es sich ja endlich von 18 auf 26 umzusteigen.
Aber bei der on screen awareness sehe ich schon sicherheitsbedenken …
Wenn das Gerät immer weis was auf dem Bildschirm abgeht, lässt sich das auch in Zukunft von außen abgreifen … das wird spannend
Da freut sich Trump und Co.
Von außen abgreifen?
Beschäftige Dich mal mit dem Thema Security auf dem iPhone und die internen Prozesse etc.
Im Frühjahr 2027 also in Deutschland…oder erst wenn Cocky gegangen ist/wurde.
Kann mal wohl nur glauben wenn es wirklich verfügbar ist…..und man dann auch sieht was die „kluge Siri“ wirklich kann.
Finde erstaunlich wie viel Vertrauen und Reputation Apple anscheinend durch Ihr KI Desaster verspielt haben. So viele negative Kommentare bzgl. Apple findet man hier sonst sehr selten ;)
Schon mal von Google Notebook LM, Studio AI, Veo3 oder einfach nur Gemini mit Nano Banana ausprobiert? Siri ist dagegen eine Amöbe.
Lässt noch keine Voraussagen über Qualität zu, aber die drei genannten Kernfunktionen sind tatsächlich mit die größten Barrieren zur Nützlichkeit IMHO. Vor allem (1) und (3). Bildschirminhalt ist für mich persönlich weniger relevant, aber der generelle use-case ist natürlich auch dafür bewusst.
Freue mich sehr auf eine KI-Siri, finde die aktuelle Verknüpfung zu ChatGPT auch schon nicht schlecht.
Interessant wird es, wenn Apple Home auch mit seinen Sensoren und Geräten unter die „KI-Beobachtung“ fällt, lernen von Verhaltensmustern und Erkennen von Anomalien. Daraus dann automatisch Vorschläge für Automatisierungen machen.
Es müsste noch eine Lösung für den Kühlschrank und den Vorratsraum geben, damit Apple Intelligence weiß, wie viel Milch wir noch haben. Und bei Erkennung eines Mangels auf Nachfrage direkt eine Bestellung auslöst oder es auf die Einkaufsliste setzt.