Unterschied zwischen Feature-Erkennung und Descriptor-Extraktion
Kennt jemand den Unterschied zwischen FeatureDetection und DescriptorExtraction in OpenCV 2.3? Ich verstehe, dass die letztere ist erforderlich für die Anpassung mittels DescriptorMatcher. Wenn das der Fall ist, was ist FeatureDetection verwendet?
Danke.
InformationsquelleAutor der Frage Chris A | 2011-07-26
Du musst angemeldet sein, um einen Kommentar abzugeben.
Feature-Erkennung
In der computer-vision und Bildverarbeitungs-das Konzept der feature-Erkennung bezieht sich auf Methoden, die darauf abzielen, computing Abstraktionen von Bild-Informationen und lokale Entscheidungen auf jedem Bildpunkt, ob es eine Funktion image eines bestimmten Typs an dieser Stelle oder nicht. Die daraus resultierenden Funktionen werden Teilmengen der Bild-Domäne, die Häufig in form von isolierten Punkte, durchgehende Kurven oder angeschlossenen Regionen.
Feature-Erkennung = so finden Sie einige interessante Punkte (features) in das Bild.(Ex: eine Ecke zu finden, finden eine Vorlage und so...)
Feature-Extraktion
In pattern recognition und image processing, feature-extraction ist eine Besondere form der dimensionsreduktion. Wenn die Eingabedaten für einen Algorithmus ist zu groß, um verarbeitet werden und es wird vermutet, notorisch redundant (viele Daten, aber nicht viel), dann wird der input-Daten transformiert werden in eine reduzierte Darstellung einstellen von Funktionen (auch als Vektor-features). Die Umwandlung der Eingangsdaten in die Reihe von Funktionen, genannt feature-Extraktion. Wenn die features extrahiert werden sorgfältig ausgewählt, es wird erwartet, dass die Funktionen eingestellt werden, extrahieren die relevanten Informationen aus der input-Daten, um führen Sie die gewünschte Aufgabe mit dieser reduzierten Darstellung, statt der vollen Größe Eingang.
Feature-Extraktion = wie stellen die interessanten Punkte, die wir gefunden haben, vergleichen Sie Sie mit anderen interessante Punkte (features) in das Bild. (Ex, den lokalen Bereich, die Intensität dieser Punkt? Die lokale Ausrichtung der Fläche um den Punkt herum? und so weiter...)
Praxis-Beispiel : finden Sie eine Ecke mit dem harris-corner-Methode, aber beschreiben kann man es mit jeder Methode, die Sie wollen (Histogramme , HOG, Lokale Orientierung in der 8. Nähe zum Beispiel)
Sehen Sie hier einige weitere Informationen,
Link zu Wikipedia
Julien, (Half bei wikipedia :p)
InformationsquelleAutor der Antwort jmartel
Sowohl
Feature Detection
undFeature descriptor extraction
sind Teile desFeature based image registration
. Es macht nur Sinn zu schauen, Sie in den Kontext der gesamten feature based image registration Prozess, um zu verstehen, was Ihre Aufgabe ist.Feature-basierte Registrierung-Algorithmus
Dem folgenden Bild aus der PCL-Dokumentation zeigt, wie ein Amtliches pipeline:
Datenerfassung: Ein input-Bild und einem Referenzbild zugeführt werden, die in den Algorithmus. Die Bilder sollten zeigen die gleiche Szene aus leicht unterschiedlichen Standpunkten.
Knackpunkt Schätzung (Feature detection): Ein Schlüsselpunkt (Interesse zeigen) ist ein Punkt in der Punktwolke, die die folgenden Merkmale aufweist:
OpenCV kommt mit mehreren Implementierungen für
Feature detection
wie:Solche markante Punkte in einem Bild sind so nützlich, weil die Summe der Sie prägt das Bild und hilft, die unterschiedlichen Teile unterscheidbar.
Feature Deskriptoren (Descriptor extractor): Nach dem erkennen Eckdaten, die wir gehen, um zu berechnen, ein Deskriptor für jeden von Ihnen. "Eine lokale Deskriptor-eine kompakte Darstellung der eine Punkt ist die lokale Nachbarschaft. Im Gegensatz zu globalen Deskriptoren beschreiben ein komplettes Objekt oder Punkt, cloud, lokale Deskriptoren versuchen Sie ähneln in Form und Aussehen nur in einer lokalen Umgebung um einen Punkt und sind somit sehr geeignet für die Darstellung in Bezug auf das matching." (Dirk Holz et al.). OpenCV Optionen:
Korrespondenz Schätzung (Deskriptor matcher): Die nächste Aufgabe zu finden, Entsprechungen zwischen den Eckdaten finden sich in beiden Bildern.Deshalb werden die extrahierten Merkmale in eine Struktur, die durchsucht werden können, effizient (wie ein kd-Baum). In der Regel ist es ausreichend, zu schauen, bis alle lokalen feature-Deskriptoren entsprechen, jeder von Ihnen zu seinem entsprechenden Gegenstück aus dem anderen Bild. Jedoch aufgrund der Tatsache, dass zwei Bilder aus einer ähnlichen Szene nicht unbedingt die gleiche Anzahl von feature-Deskriptoren, die wie eine Wolke kann mehr Daten haben, dann die anderen, die wir ausführen müssen, die eine getrennte Korrespondenz Ablehnung Prozess. OpenCV Optionen:
Korrespondenz Ablehnung: Eine der häufigsten Ansätze führen Korrespondenz Ablehnung ist die Verwendung RANSAC (Random Sample Consensus).
Transformation Schätzung: Nach robuste Korrespondenzen zwischen zwei Bildern berechnet werden, die eine
Absolute Orientation Algorithm
zum berechnen der Transformationsmatrix, die angewendet wird, auf die Eingabe passende Bild das Referenzbild. Es gibt viele verschiedene Algorithmische Ansätze, um dies zu tun, ein gemeinsamer Ansatz ist: Singulärwertzerlegung(SVD).InformationsquelleAutor der Antwort Kevin Katzke