Objekt-Erkennung mit dem iPhone: DeepBelief-Framework für Entwickler
Der iPhone-Entwickler Pete Warden hat sein DeepBelief-Framework zum Download für alle interessierten Programmierer freigegeben und ermöglicht euch damit die Integration einer selbstlernenden Objekt-Erkennung in eure iPhone-Anwendungen.
DeepBelief setzt dafür auf den Einsatz künstlich-neuronaler Netze und implementiert eine Objekt-Erkennung nach Vorlage dieser Javascript-Umsetzung.
Wie funktioniert DeepBelief?
Ihr legt dem Framework 100 Bilder des Objektes vor, das ihr erkennen wollt. Anschließend füttert ihr den Code mit 100 weiteren Bildern, auf denen das zu erkennende Objekt nicht vorhanden ist. Der Rest ist Magie. DeepBelief sollte nun in der Lage sein das vom iPhone eingefangene Kamerabild in Echtzeit zu beobachten und sich immer dann zu melden (bzw. von euch programmierte Aktionen anzustoßen) wenn das gewünschte Objekt vom Sucher der iPhone-Kamera eingefangen wurde.
Wie ihr das Feature letztlich in euren Applikationen einsetzen wollt, hängt von eurer Kreativität ab. Derzeit sind die Projekt-Dateien eher akademischer Natur. Auf dem iPhone 5s benötigt DeepBelief nur rund 300 Millisekunden und weniger als 20MB Arbeitsspeicher zum trainierten Erkennen eurer Objekte.
DeepBelief im Demo-Video
(Direkt-Link)
Pete Warden zu seiner Motivation:
That’s why I’ve decided to release DeepBeliefSDK, an iOS version of the deep learning approach that has taken the computer vision world by storm. In technical terms it’s a framework that implements the full Krizhevsky stack of 60 million neural network connections, with a customizable top layer inspired by the Decaf approach. […] I built it so people can easily experiment with a classic deep belief approach to image recognition themselves, to understand both its limitations and its power, and to demonstrate that the algorithms are usable even in very restricted client-side environments like web browsers.