Lokale Chat, optionales Archiv
Gratis-App „SmartFruit“ macht Apples lokale KI greifbar
Mit iOS 26 hat Apple alle interessierten Entwicklern sogenannte Foundation-Models zur Verfügung gestellt. Drittanbietern wird hier der direkten Zugriff auf Apples KI-Sprachmodelle gewährt, die sich direkt auf dem Gerät lokal ansprechen lassen und keine Internetverbindung voraussetzen.
Apples Modell bildet die technische Grundlage von Apple Intelligence und kann für eine Vielzahl textbasierter Aufgaben eingesetzt werden. Es erkennt Muster in Anfragen, erzeugt passende Texte und kann sogar auf selbstgeschriebenen Code zugreifen, um spezielle Aufgaben auszuführen.
Lokale Chat, optionales Archiv
Die neu verfügbare App SmartFruit bietet ein Chat-Interface für dieses lokale Sprachmodell. Nutzer können Fragen stellen oder Texteingaben machen, die dann direkt auf dem iPhone oder iPad verarbeitet werden. Da die Verarbeitung ohne Verbindung zu externen Servern geschieht, bleiben die Daten privat.
Für einmalig 0,99 Euro lässt sich eine Archivfunktion freischalten, mit der sich Unterhaltungen speichern und exportieren lassen. Auch verschiedene Trinkgeld-Optionen stehen zur Verfügung, um den Entwickler zusätzlich zu unterstützen.
Optionen für Entwickler
Besonders interessant ist SmartFruit für Entwickler. Über ein Einstellungsmenü können verschiedene Parameter wie Sampling-Modus, Temperatur oder die Länge der Antworten verändert werden. Auch die von Apple vorgesehenen Leitplanken, die Inhalte stärker oder weniger restriktiv begrenzen, lassen sich anpassen. Für jede Auswahl generiert die App automatisch ein SwiftUI-Codebeispiel, das zeigt, wie sich die Optionen im eigenen Projekt umsetzen lassen.
Das Foundation-Model ist auf vielfältige Textgenerierung ausgelegt. Es kann Inhalte zusammenfassen, Informationen extrahieren, Dialoge für Spiele schreiben oder ganze Datenstrukturen in Swift erzeugen. SmartFruit macht diese Funktionen sichtbar und veranschaulicht, wie Entwickler die Schnittstellen in iOS 26 einsetzen können. Voraussetzung für die Nutzung ist ein Gerät mit Apple Intelligence und installiertem iOS 26.
OT: Gibt es irgendwo Informationen wie man ios26 einstellen muss damit es wenigsten annähernd wieder „brauchbar/wie vorher“ aussieht?
Bedienungshilfen-> Anzeige -> Transparenz reduzieren
Das hilft schob ganz ordentlich und spart Akku weil er die ganzen Glas Effekte nicht berechnen muss
Stell doch diese Frage im iOS 26 ist erschienen thread…
Ja, kommt bestimmt bald noch einer. Wollte bloß nicht als 230 in den von gestern schreiben, das liest doch keiner mehr. War wohl zu verzweifelt…
Ja ok, ich kann’s verstehen :)
Dachte auch erst wie schrecklich aber hab Hintergrund geändert und mich bisschen durch das Design geklickt und jetzt ist es ganz ansehnlich. Liegt viel am Hintergrund.
Das macht Hoffnung, Danke.
Es müsste „vom Baum fallen sah“ und nicht „vom Baum fiel sah“ heißen.
Beim iPhone 17 Pro wird das Neural Accelerator beworben. Das soll beim arbeiten mit lokalen KIs beschleunigen.
Heißt das in dem Fall, dass diese App hier leistungsstärker läuft?
Würden in Zukunft weitere lokale KIs auf dem iPhone nutzbar sein?
Ich habe die App jetzt mal etwas getestet und bin echt positiv schockiert wie gut dieses lokale Modell doch ist.
Klar ist es nicht ansatzweise so gut wie online ausgeführte Modelle, aber für ein lokales Modell, das in 8GB RAM passt, von denen ja schon ein Teil vom System belegt ist, finde ich es erstaunlich gut.
Im nächsten Moment frage ich mich jedoch, warum dieses Modell nicht schon für Siri benutzt wird. Selbst dieses Modell ist doch besser als „das habe ich leider nicht verstanden“ oder „das habe ich im Internet gefunden“.
Funktioniert überhaupt nicht. Es gibt in jeder Antwort immer nur einen Hinweis auf apple.com. Da hat Apple wohl einen Riegel vorgeschoben.
Was hast du denn für ein iPhone? Das funktioniert erst ab dem 15 Pro.
Habe das selbe Problem. 15 Pro. Sollte also gehen.
Ich habe das Problem auf meinem 16 Pro ebenfalls.
Hatte ich auch, nach einem iPhone neustart klappte es. Bei mir auf dem 16+ gab es beim ersten test: „wie viele r enthält das wort erdbeere“ als antwort „Error: Detected content likely to be unsafe“
Ah, find Es-ist-aber-wichtig-zu-beachten-KI Hehe Aber hey, es funktioniert. Wirkt eben nur veraltet.
*find = eine
Also ich habe jetzt nach mehreren Versuchen bisher keinerlei Antworten bekommen, die sinnvoll sind. Es wird zu viel auf Apple verwiesen.
Frage:
Wer ist Johann Sebastian Bach?
Antwort:
Die neuesten Produktinformationen findest du auf apple.com.
Prompt eingeben
Ich habe ein iPhone 16 Pro Max und habe auch das Gerät nach der Installation neu gestartet.
Mit solchen Antworten kann man nicht viel anfangen
Auch wenn ich Dinge zu lokalen auf dem Gerät gespeicherten Sachen frage, kommt auch nicht viel bei rum. Im Endeeffekt soll ich alles bei Apple nachfragen, auf der Webseite. Sinn frei.
Was fragt ihr denn, wo etwas bei rumkommt?