Apple benötigt Unterstützung
Google Gemini als Unterbau für die neue Siri
Wenn wir im kommenden Jahr die neue Version von Siri sehen, arbeitet im Hintergrund möglicherweise kein von Apple entwickeltes KI-Modell, sondern eine Variante von Googles Gemini-KI. Laut dem in Apple-Fragen meist gut informierten Bloomberg-Autor Mark Gurman hat Apple Google damit beauftragt, für diesen Zweck eine speziell angepasste Version von Gemini zu entwickeln. Den Informationen zufolge soll diese Variante dann auf Apples eigenen Cloud-Servern laufen und künftig die Grundlage für die überarbeitete Version der Sprachassistentin Siri bilden.
Apple habe zuvor zwischen Angeboten von Google und Anthropic abgewogen. Obwohl Anthropic dem Vernehmen nach das technisch stärkere Modell angeboten habe, sei die Entscheidung zugunsten Googles gefallen. Dabei sollen vor allem die bestehenden Geschäftsbeziehungen im Bereich der Internetsuche eine Rolle gespielt haben. Gurman merkt an, dass man nicht erwarten dürfe, dass die beiden Konzerne diese Kooperation öffentlich bestätigen.
Eine für Google ungewohnte Seite dieser Zusammenarbeit sei zudem die Tatsache, dass die Integration von Gemini in keiner Weise mit zusätzlichen Google-Diensten verknüpft sei, wie beispielsweise bei der Gemini-Integration auf Android-Geräten der Fall. Stattdessen soll das Gemini-Modell im Hintergrund laut Gurman ausschließlich dafür sorgen, dass Siri komplexere KI-gestützte Funktionen bereitstellen kann. Endnutzer sollen diese Leistungserweiterung vollumfänglich in die gewohnte Apple-Umgebung eingebettet vorfinden.
Siri-Update im kommenden Jahr
Apple ist es seinen Kunden weiterhin schuldig, die im vergangenen Jahr gemachten Versprechungen in Sachen KI-Integration zu erfüllen. Die erweiterten Funktionen von „Apple Intelligence“ und Siri wurden aus nicht näher bezeichneten Gründen aufgeschoben und sollen im kommenden Jahr bereitgestellt werden. Der Apple-Chef Tim Cook hat erst in der vergangenen Woche bestätigt, dass man diesbezüglich weiterhin im vorgesehenen Zeitplan sei.

Oh je! :( OpenAI war wohl zu teuer?
Hmm, die kooperieren mit dem abtrünnigen Jonny ;-)
Und kein ChatGPT? Wäre doch die nr1 oder nicht?
Nein?
Doch? ChatGPT von Open AI ist offiziell noch die meinst beliebteste und aktiv meist genutzte KI.
Datenschutz ade
Schonmal bei der Schufa und den 3 anderen großen Auskunfteien eine persönliche Abfrage getätigt?
Da regt sich keiner über Datenschutz auf.
Da regt sich auch keiner über sozial Profiling auf.
Ich schon. Ich reg mich da immer auf
Ich rege mich mit Thomas auf!
Ich rege mich über Thomas auf.
Ich reg mich auch ohne Thomas nicht auf.
Warum? Soll doch auf apple-Servern laufen… :D
Ihr immer mit euren Datenschutz ! Du hast ein Smartphone in der Hand du sitzt bereits im Glashaus !
Absolut meine Meinung! Absolut!
vorallem die Tracker die hier laufen :D
Blödsinn
+1
Bist du beim Artikel bis zum Schluss oder nur bist zur Überschrift gekommen??
+ 1
Entweder Artikel gar nicht gelesen, oder grundsätzlich nicht verstanden. Hindert leider nicht am Kommentieren..
Schade, Qualität von OpenAi ChatGPT ist viel besser
Nimmt sich alles nix. Die Datenquellen sind oft identisch, ebenso die Interpretation. Lediglich die Ausgabe unterscheidet sich.
Zumindest meine Beobachtung
Es kommt ganz darauf an, was die Aufgabe ist. Ich nutze alles mögliche parallel und gerade, wenn ich mit einem Ergebnis nicht zufrieden bin, teste ich andere Anbieter gegen. Mal schlägt sich chatGPT am besten, mal Perplexity, mal Gemini usw.
chatGPT braucht z. B. recht lange, um Bilder zu erzeugen, aber mit dem Ergebnis bin ich deutlich zufriedener als mit dem schnelleren Modell von Grok.
Perplexity konnte mir nicht sagen, wer der Schauspieler auf einem Screenshot war – Gemini hingegen schon.
Im Vergleich zu Anthropic? Im Leben nicht
Win win einfach…
Sehr schade, aber wieder mal typisch Apple. Und uns dann lass das allerbeste Lösung vorstellen.
Gemini ist nur am Schnüffeln. Schade. Hätte mir Open AI mehr gewünscht.
Kannst du dafür Quellen nennen?
Und auch darlegen, dass die Konkurrenten das nicht tun?
Halte solche Aussagen für kritisch.
Es läuft – wie der Artikel schreibt – in Apples Rechenzentren, das heißt: Kein Rückkanal zu Google.
Guten Morgen!
Blöd, aber verständlich. Anthropic wäre mir lieber, aber Cook will’s nicht noch mal mit Siri versemmeln und setzt auf den fetten Kumpel auf der anderen Straßenseite.
Neulich noch irgendwo gelesen bzw gesehen, dass Gemini vom Wahrheitsgehalt von allen LLM’s bei weitem mit Abstand am schlechtesten abschneidet.
Das war sogar mehr wie doppelt so viel in Prozent wie es bei Chat GPT, Grok oder Claude jeweils war.
Unter dem Aspekt ist diese Entscheidung schon massiv beunruhigend.
Die Welt ist leider etwas komplexer und lässt sich nicht in einer Zahl zusammenfassen.
Du beziehst dich vermutlich auf diese zuletzt vielfach erwähnte Studie: https://www.ebu.ch/Report/MIS-BBC/NI_AI_2025.pdf
Gemini fällt z. B. bei Quellrnangaben sehr negativ auf. In anderen Bereichen sind die Ergebnisse hingegen vergleichbar mit den Konkurrenten.
Aber ja, grundsätzlich schneidet Gemini dort schlecht ab. Perplexity erscheint mir insgesamt noch mit am besten zu sein (und gibt es über PayPal ein Jahr kostenlos)
Was wieder alle ihren Aluhut rausholen. Artikel nicht gelesen? Die verändert Gemini Version würde auf Apple Servern laufen, da darf man davon ausgehen dass Google die Daten die darüber laufen nicht bekommt. Keine zusätzlichen Google Dienste. Und ich kann mir kaum vorstellen dass Apple das sonderlich lange so laufen lässt. Das wird ja Unsummen kosten damit Google das mitzieht. Aber der Druck auf das eigene Ki-Modell wird etwas genommen und kann im Hintergrund vernünftig aufgebaut werden. Ich würde das erst einmal positiv sehen.
So kann und sollte man das interpretieren.
Fehler selber erkannt? Haha… Du schreibst, man soll den Artikel lesen – das würde aber Arbeit machen und meckern ist erstmal einfacher!
Spaß beiseite – ich seh’s genau wie du.
Private Cloud Compute Server regeln das mit dem Datenschutz. Die UI ist Apple typisch und die Geschäftsbeziehungen werden außerdem gestärkt. Das Gemini-LLM ist sehr gut – gerade 2.5 Pro liefert Top-Ergebnisse. Wenn das sogar nochmal für Apple angepasst wird – umso besser!
Ich würde aber noch nicht einmal sagen, dass das Unsummen kostet – teuer wird es sein, aber Google wird sicher vom Apfel auch nicht allzu viel verlangen wollen (siehe Geschäftsbeziehungen).
Ich denke es wird in Zukunft – wie du sagt – ähnlich der M-Prozessoren laufen. Am Anfang auf Dritte setzen und im Hintergrund anpassen, verbessern, zuschneidern. Dann wird das eigene KI-Modell umso stärker (und On-Device) laufen!
Das macht die Qualität und Abhängigkeit von Google auch nicht besser!!! Das ist ein offenbar & leider eine rein wirtschaftliche Strategie.
Ich glaube Apple entwickelt sich langsam zu einer Art träges Amt. Erst dieser Brillen Flop, dann das Auto und nun bekommen sie nicht mal mit gefüllter Kriegskasse eine anständige KI hin. Das hätte ich nie gedacht….
Krass welche Einblicke du so hast!
Viel Meinung und wenig Ahnung. Der Standard hier.
+ 1
Was für ein Auto? Abseits von Konzepten, Prototyping und Herumbasteln an Fremdfabrikaten hat es nie etwas in der Richtung gegeben und es gab auch nie irgendeine Ankündigung eines eigenen Autos. Also ganz normales Research and Development wie es auch andere Unternehmen betreiben. Und der Begriff „KI“ umfasst mehr als nur Sprachmodelle. Applegeräte nutzen seit vielen Jahren haufenweise „KI“. Wobei alle großen LLMs das gleiche Problem haben: Abseits von analytischen und dergleichen machine learning Aufgaben sind sie ungeeignet, da die Fehlerquote zu hoch ist. Egal ob ChatGPT, Gemini, Llama, Grok und Co. Die Dinger halluzinieren sich alle einen unglaublichen Bockmist zusammen. Insofern ist noch gar nicht final evaluierbar ob es wirklich ein Fehler von Apple war bisher keine Dutzenden Milliarden in potenziellen Kernschrott zu versenken, sondern erstmal die Konkurrenz „Grundlagenforschung“ betreiben zu lassen. Ja, das mag nicht innovativ klingen. Aber bisher hat das Unternehmen dadurch auch indirekt noch nichts verloren, da bisher sowieso niemand direkt Geld mit Sprachmodellen verdient. Und die Dauer und Kosten zum Aufholen in dem Sektor durch Entwicklung sinken. Apple kann also bei Bedarf in einem Jahr schneller bei Sprachmodellen aufholen, als vor einem Jahr.
+1
welches Auto meinst du?
Ganz sicher werden wir 2026 das beste Siri haben, was es je gegeben hat. Wie schon 2025, 2024 und 2023….!
natürlich. Ist doch auch logisch wenn sie sich weiter entwickelt.
Natürlich wird es besser. Von Gut hat niemand was behauptet. :)
Das wäre doch die absolute Bankrotterklärung. Es wirkt so, als ob man weiterhin wirklich gar keinen Plan hat, was man da tut.
„Besser schlecht gefahren als gut gelaufen“ pflegte meine Mutter zu predigen.
Also wenn ich mir die Veröffentlichungen der Apple ML-Abteilung so anschaue, dann sind das recht ordentliche Sachen.
Aber Gegenfrage: schon einmal Tool-Nutzung mit KI-Modellen gemacht? Also z.B. mal eine API mit einer KI angesprochen? Selbst mit einem speziell dafür angepassten Instruct-Modell hast Du hier trotzdem noch Fehlerraten von mehreren Prozent, ob das Modell nun von Meta, OpenAI, Google, Anthropic oder DeepSeek & Qwen stammt.
Was heisst das z.B. für das funktionieren von Apple Home? Ganz einfach: eine Fehlerrate von nur einem Prozent würde vermutlich bedeuten, dass tagtäglich mehrere hunderttausende wenn nicht Millionen an SmartHome-Anfragen via Siri fehlschlagen würden. Vermutlich sogar weitaus mehr als bisher :-)
Ist also keine einfache Aufgabe; allerdings scheint Gemini Home zumindest einigermassen gut zu funktionieren und das liegt vermutlich an den Daten sowie Compute-Möglichkeiten die Google eben besitzt und Apple leider halt nicht.
Von daher kann ich die Sache schon nachvollziehen und hat nicht unbedingt was „keinem Plan“ zu tun.
Open AI schnüffelt doch auch. Es wurden auch schon Daten gespeichert die im stealth Modus rein gingen.
Bei mir hat Gemini in meinem Alltag neutralere Antworten gegeben als ChatGPT und deshalb sehe ich das erstmal als Pluspunkt gegenüber WokeGPT. Bleibt nur zu hoffen, dass Apple darin nicht rumpfuscht mit seinen eigenen Richtlinien
Peinlich was timmay da abliefert.
Was genau?
Warum auch das Rad 2mal neu erfindet?
Gut so Apple. Ausserdem wird KI komplett überschätzt. 99% der Benutzer spielen bestenfalls damit ein bisschen rum um es dann wieder zu ignorieren. Ein wirklicher Need existiert nicht.
Quatsch! Geh mal nicht von uns & dir aus! Es gibt extrem viele Anwendungen in der Wirtschaft, Gesundheitswesen, … wo KI bereits zum Einsatz kommt und verstärkt kommen wird. Der Flaschenhals ist die Bereitstellung der Daten (Datenschutz & Co., fehlende stabile Schnittstellen), die das Training und damit die Anwendung aktuell erschweren/verhindern.
Seine Aussage bezieht sich vermutlich auf den durchschnittlichen Apple-User, für den KI ist, wenn Siri das Geräusch eines Elefanten vorspielen kann und der begeistert von der neuen Gerätefarbe ist.
Ist doch super. Gemini 2.5 ist stark.
Alle, die hier mausern, haben offenbar noch nicht mit Gemini und NotebookLM gearbeitet.
Mies. So lange Zeit und dann bekommen sie es nicht selbst auf die Reihe
Für Apple wird die Luft dünner… liest sich ja so: Gemini wird genommen, weil sonst Google als Standardsuchmaschine nicht mehr hinterlegt werden darf oder der Preis absurd teuer wird. Schade das Apple auch das verpennt hat, da was eigenes zu bauen oder einzukaufen. Schon ist man ein wenig erpressbar….
Also verpennt hat selber eine Suchmaschine anzubieten…
Was für eine krude These. Du verdrehst die Tatsache, dass Alphabet Apple bezahlt, damit Google als Suchmaschine gefeatured wird. Und nicht umgekehrt. Entsprechend wirr ist deine darauf aufbauende Hypothese.
Also noch mehr Datentracker.
Ausgerechnet Gemini – hat seit Monaten die schlechtesten Ergebnisse und viele falsch Aussagen, da ist ChatGPT um Welten besser, obwohl wir persönlich Perplexity und Claude bevorzugen.
DAS ist bei den finanziellen Möglichkeiten der Firma Apple und ihrem Anspruch eine totale Bankrotterklärung!!