KI-Modelle nutzen jeweils eigene Stimmen
iOS 27: Nutzer sollen KI-Anbieter selbst auswählen können
Apple baut seine KI-Strategie offenbar deutlich breiter aus als bislang angenommen. Nachdem bereits bekannt wurde, dass die nächste Siri-Generation technisch auf Googles Gemini-Modellen aufsetzt, soll Apple künftig auch weitere externe KI-Anbieter tief in seine Betriebssysteme integrieren.
Nutzer könnten dann selbst entscheiden, welches Sprachmodell zentrale Funktionen von Apple Intelligence übernimmt.
Die Kooperation mit Google wurde inzwischen offiziell bestätigt. Apple will die kommende Generation seiner KI-Modelle auf Gemini-Technologie und der Cloud-Infrastruktur von Google aufbauen. Auf dieser Basis sollen unter anderem die bereits vor längerer Zeit angekündigten persönlichen Siri-Funktionen bereitgestellt werden.
Apple begründet die Zusammenarbeit damit, dass Googles KI-Technik derzeit die beste Grundlage für die eigenen Anforderungen biete. Gleichzeitig betont der Konzern, dass Datenschutz und lokale Verarbeitung weiterhin zentrale Bestandteile von Apple Intelligence bleiben sollen. Inhalte sollen entweder direkt auf dem Gerät oder über Apples eigene Private-Cloud-Systeme verarbeitet werden.
Nutzer sollen KI-Anbieter selbst auswählen können
Parallel dazu arbeitet Apple laut aktuellen Berichten an einem weiteren Ausbau seiner KI-Plattform. Mit iOS 27, iPadOS 27 und macOS 27 könnten Anwender erstmals auswählen, welches KI-Modell systemweit genutzt werden soll. Die Auswahl soll nicht nur Siri betreffen, sondern auch Funktionen wie Schreibwerkzeuge oder die Bildgenerierung in Image Playground.
Demnach plant Apple ein System mit sogenannten „Extensions“. Entwickler externer KI-Anbieter könnten ihre Modelle über Apps im App Store einbinden. Nutzer würden anschließend in den Systemeinstellungen festlegen, welches Modell standardmäßig verwendet werden soll.
Bislang ist lediglich ChatGPT offiziell in Apple Intelligence integriert. Künftig könnten aber auch Modelle von Google oder Anthropic direkt eingebunden werden. Intern soll Apple entsprechende Integrationen bereits testen.
Zusätzlich arbeitet Apple offenbar an einer flexibleren Sprachsteuerung für Siri. Unterschiedliche KI-Modelle könnten jeweils eigene Stimmen nutzen. Siri-Antworten auf Basis von Apples eigener KI würden dann anders klingen als Antworten eines eingebundenen ChatGPT- oder Gemini-Modells.


Cool. Das wäre genau das was ich mir wünsche.
Frage: Wäre es klug mal Gemini auszuprobieren, statt nur ChatGPT zu nutzen?
Ich mache es zum Beispiel so. Mal Gemini, mal ChatGPT. Irgendwann merkst du dann, welche der beiden für welche Anwendung besser geeignet ist. Der Mix machts.
Danke! Werde ich versuchen
Ja definitiv, Gemini hat zuletzt in einigen Ebenen stark aufgeholt, evtl sogar überholt.
Ich nutze alle drei, ChatGpt, Claude und hin und wieder Gemini.
Die ersten beiden am meisten. Für ChatGPT zahle ich das günstigere Abo-Model
und ich möchte wieder auf das europäische “ Le Chat“ hinweisen, bin echt zufrieden damit
Definitiv!
Gemini ist Schmutz
Nein
Könntest du das bitte etwas genauer beschreiben?
Ich hab ChatGPT inzwischen komplett von meinem Handy gelöscht. Sowohl Gemini, als auch Claude sind so viel besser.
Große Worte auch in Verbindung mit Siri.
Wenn ich Siri lese werde ich automatisch immer skeptisch.
Okay und wie schalte ich die KI aus, wenn ich weder noch möchte?
Frage für einen Freund.
So wie jetzt auch schon. In den Einstellungen. Apple Intellligence und Siri Schieberegler raus – fertig.
Gemini und alle anderen müsstest Du sowieso selbst installieren.
Naja, wenn Apple das jetzt lizensiert hat, wird es wohl in den nächsten Versionen standardmäßig eingeschalten werden.
Das Wichtigste an diesem ganzen KI Irrsinn ist und bleibt, dass man es hoffentlich weiterhin vollständig deaktivieren kann.
Internet und das Automobil waren auch damals Irrsinn. Die Geschichte wird auch dich einholen. ;)
Durch das Auto ist aber niemand verblödet und es hat auch keine Arbeitsplätze gekostet – im Gegenteil!
Korrekt.
Sag mir das du Deutscher bist ohne mir zu sagen dass du Deutscher bist
Durch die KI schon vollkommen verblödet oder warum schreibst du so etwas unsinniges?
Ich würde ein offenes Modell wie Kimi oder DeepSeek wählen wollen.
Das mit den unterschiedlichen Stimmen stelle ich mir schnell nervig vor.
Das wird auch viel Arbeitsspeicher, von dem es eh nur wenig gibt, fressen! Gescheite Stimmen, a la Siri fressen mal eben so über 300MB RAM. Die „einfacheren“ Stimmen willst du dir nicht antun. Hören sich an wie aus dem Jahr 1980!
Ansonsten finde ich das Vorhaben sehr, sehr gut!
LeChat nicht mit dabei? Ich hoffe, kommt noch.
Vielleicht nach Tim oder wenn die EU Apple zwingt.
Aktuell zeigt Apple ja allem außerhalb der USA eher den Mittlefinger.
Wenn man es jetzt noch mit Fokus verbinden kann, dann wäre es der Hammer. Zuhause Gemini, auf Arbeit automatisch auf Anthropic zB
Das ist auch das Mindeste, ich würde den Kram abwählen.
Erster Gedanke: One ring to rule them all…