Wie können Sie verfolgen von Bewegung mit der iPhone-Kamera?
Sah ich, dass jemand eine app, die Spuren Ihrer Füße mit der Kamera, so dass Sie kicken können einen virtuellen Fußball auf Ihrem iPhone-Bildschirm.
Wie konnte Sie so etwas tun? Kennt jemand eine code-Beispiele oder weitere Informationen zum verwenden der iPhone-Kamera für die Erkennung von Objekten und Verfolgung?
InformationsquelleAutor der Frage Burf2000 | 2010-10-14
Du musst angemeldet sein, um einen Kommentar abzugeben.
Ich habe gerade einen Vortrag an SecondConf wo ich demonstrierte den Einsatz der iPhone-Kamera zu verfolgen, ein farbiges Objekt mit OpenGL ES 2.0 Shader. Die post begleiten, die sprechen, auch meine Folien und Beispiel-code für alle demos finden hier.
Die Beispielanwendung, die ich schrieb, deren code kann heruntergeladen werden von hierbasiert auf einem Beispiel produziert von Apple für den Nachweis der Core-Image auf der WWDC 2007. Das Beispiel ist beschrieben in Kapitel 27 der GPU Gems 3-Buch.
Die grundlegende Idee ist, dass Sie können benutzerdefinierte GLSL-Shader für die Verarbeitung von Bildern aus der iPhone-Kamera in Echtzeit ermitteln, welche Pixel übereinstimmen, ein Ziel-Farbe in einer bestimmten Schwelle. Diese Pixel dann normalisierte X -, Y-Koordinaten eingebettet in Ihre roten und grünen Farbkomponenten, während alle anderen Pixel werden gekennzeichnet als schwarz. Die Farbe des ganzen Rahmens wird dann gemittelt, um zu erhalten der Schwerpunkt das farbige Objekt, das Sie verfolgen können, wie es bewegt sich durch den Blick der Kamera.
Während dies nicht der Fall ist tracking ein komplexeres Objekt wie ein Fuß, Shader wie diese sollten in der Lage sein, um geschrieben zu werden, herausgreifen ein bewegendes Objekt.
Als update zu den oben genannten, in den zwei Jahren seit ich dies schrieb, habe ich jetzt entwickelt ein open-source-frameworkkapselt OpenGL ES 2.0 shader-Verarbeitung von Bildern und video. Eine der jüngsten Ergänzungen ist eine GPUImageMotionDetector Klasse, die Prozesse einer Szene und erkennt jede Art von Bewegung innerhalb es. Es wird Ihnen wieder den Schwerpunkt und die Intensität der gesamten Bewegung erkennt, als Teil einer einfachen callback-block. Mit diesem Rahmen zu tun, das sollte viel einfacher sein, als die Rollen Ihrer eigenen Lösung.
InformationsquelleAutor der Antwort Brad Larson
Habe ich einigen Erfolg gehabt tracking von Gesichtern und Augen mit OpenCV auf dem iPhone.
Hier ist ein guter Ort, um zu starten: http://niw.at/articles/2009/03/14/using-opencv-on-iphone/en
Ich denke, der trick ist es, eine Kaskade (Beschreibung von dem, was die Kamera gesucht werden soll) , beschreibt ein Fuß, nicht wirklich sicher, ob das existiert allerdings.
InformationsquelleAutor der Antwort aegzorz