Die Basis von Apple Intelligence
Apple zeigt Praxisbeispiele: So setzen Apps Apples KI-Modell bereits ein
Seit der Freigabe von iOS 26, iPadOS 26 und macOS 26 steht Entwicklerinnen und Entwicklern das sogenannte Foundation Models Framework von Apple zur Verfügung. Es ermöglicht, auf dem Gerät laufende KI-Funktionen in Apps zu integrieren.
Grundlage ist das Sprachmodell, das auch Apple Intelligence antreibt. Die Verarbeitung erfolgt lokal, wodurch persönliche Daten das Gerät nicht verlassen. Außerdem entstehen keine laufenden Kosten für die Nutzung des Modells, da keine Verbindung zu externen Servern notwendig ist.
Apple zeigt Praxisbeispiele
Auffällig ist, dass Apple selbst nun verstärkt auf Drittanbieter verweist. Das Unternehmen hat eine Pressemitteilung veröffentlicht, in der es konkrete Apps vorstellt, die das Foundation Models Framework bereits einsetzen. Apple selbst hatte sich zuletzt ja eher zurückhaltend zu seiner KI-Strategie geäußert (wenn überhaupt) und nutzt nun die Beispiele von Entwicklerinnen und Entwicklern, um den praktischen Nutzen von Apple Intelligence sichtbar zu machen.
- CellWalk: erklärt biologische Fachbegriffe dialogorientiert und passt Erklärungen an den Lernstand an.
- Detail: erstellt Teleprompter-Skripte aus Entwürfen und generiert Titel, Beschreibungen und Hashtags für Videos.
- Gratitude: erstellt wöchentliche Reflexionen und verwaltet Tagebucheinträge.
- Grammo: erläutert Fehler in Englischübungen und generiert neue Aufgaben im Dialog.
- Lil Artist: erstellt personalisierte Kinder-Geschichten mit Bildern.
- OmniFocus 4: generiert Projekt- und Aufgabenlisten, z. B. für Reisen.
- Signeasy: erstellt Zusammenfassungen und beantwortet Fragen zu Dokumenten.
- SmartGym: erstellt strukturierte Trainingspläne aus kurzen Beschreibungen, fasst Fortschritte zusammen und gibt adaptive Empfehlungen.
- Stoic: generiert personalisierte Tagebuch-Prompts basierend auf Stimmung und bisherigen Einträgen.
- Stuff: erkennt Termine, Tags und Listen automatisch und wandelt gesprochene Notizen in Aufgaben um.
- SwingVision: analysiert Tennis- und Pickleball-Videos und liefert spielbezogenes Feedback.
- VLLO: analysiert Videos und schlägt Musik sowie Sticker passend zu Szenen vor.
Apps aus den Bereichen Fitness, Bildung, Kreativität und Produktivität nutzen das Framework bereits. In Trainings-Apps lassen sich etwa Workouts aus einfachen Textanweisungen generieren oder Trainingsfortschritte zusammenfassen. Tagebuch-Apps können Stimmungen analysieren und individuelle Schreibanregungen anbieten. Lern-Apps erklären Fachbegriffe kontextbezogen und passen Inhalte an das Wissen der Nutzerinnen und Nutzer an. Kreativitäts-Tools analysieren Videos oder Texte und schlagen passende Elemente vor, ohne dass dafür eine Cloud-Verarbeitung erforderlich ist.
Fokus auf Datenschutz und Integration in Swift
Das Framework ist eng mit der Programmiersprache Swift verbunden. Entwickler können Anfragen direkt aus ihrem Code an das lokale Modell mit drei Milliarden Parametern senden. Die geführte Generierung sorgt dafür, dass Antworten in einem verlässlichen Format zurückkommen. Zusätzlich lassen sich eigene Tools einbinden, damit die KI fehlende Informationen direkt aus der App anfordern kann.
Apple betont, dass die neue Architektur den Datenschutz stärkt, da sensible Inhalte auf dem Gerät bleiben. Gleichzeitig sinkt der Aufwand für die Integration von KI, weil keine eigene Serverinfrastruktur erforderlich ist. Das Framework funktioniert auf Geräten, die Apple Intelligence unterstützen und ist für mehrere Sprachen verfügbar, darunter Deutsch.
Apple zeigt, wie Apps ihr KI-Modell direkt aufs Gerät bringen. Aber mal ehrlich: Bringt das im Alltag überhaupt einen Vorteil? Die meisten greifen doch sowieso gleich zu ChatGPT & Co…ist das nicht viel leistungsfähiger als ein kleines On-Device-Modell?
Nicht per se.
Zudem kommt man, solange man nicht dafür zahlt, schnell an die Limits.
Die lokalen Modelle kannst du nutzen so oft du willst. Und wenn es, wie bei den hier gezeigten Apps, spezialisiert für den jeweiligen Anwendungsfall und somit integriert ist, bleiben ChatGPT und Co sowieso nicht als Alternative.
Natürlich sind die leistungsfähiger, aber das On-Device-Modell wird eben auf Deinem Gerät ausgeführt und nicht auf dem Rechner eines anderen.
Bspw. will man vielleicht nicht unbedingt eine E-Mail mit sensiblem Inhalt zum Korrekturlesen an ChatGPT senden.
Das neuste Android verlagert seit neuestem auch sehr viel auf die lokale Verarbeitung auf dem Gerät. Apple hinkt hier stark hinterher, besonders bei der Bildbearbeitung.
Ja, aber dazu müssten alle „Deine“ Daten bei ChatGPT sein – also ein Dump Deines iPhones (oder Deines Ichs) in der Cloud… Hier im iPhone es andersrum, alle Termine, Gesprächs, Geodaten, Fotos Bewegungsprofile, Fitnesseinheiten und HealthDaten sind schon da, es braucht als nur eine ‚coole Intelligenz“ die daher Mehrwerte schafft, wie ein personalisiertes Fitnesscoaching oder Dein persönlicher Sprachtrainer, der Dir auch Termine blockt und definiere Lernziel mit Dir zusammen erreicht oder anderes Wissen mit Dir trainiert etc. Bestenfalls ohne alle Daten erst „irgendwo hin“ zu senden
Und lokal ist es auch offline verfügbar. Das ist nicht zu unterschätzen für manche Apps. Aber generell werden die lokalen Modelle eher für bestimmte Anwendungsfälle genutzt, also vor allem nicht als Suchmaschinenalternative oder Wissensdatenbank.
Apple ist beim Thema ki ziemlich abgehängt und Apple zeigt das, damit die Investoren nicht abspringen.
Wann wird denn das Sprachmodell endlich Siri antreiben?
Kommt erst dann wenn das Reinforcement Learning from Checklist Feedback so gut ist, dass die Fehlerrate bei weniger als 0,01% der Anfragen liegt.
Ansonsten hat man täglich tausende Nutzer, die meckern weil sich die Heizung ausschaltet obwohl man nach Musik von Coldplay fragte.
;))
Danke sehr hilfreich
Weiterhin solche Artikel !!!