Schwache Klassifizierer
Ich versuche zu implementieren ist eine Anwendung, die verwendet AdaBoost-Algorithmus. Ich weiß, dass AdaBoost verwendet set von schwach-klassifizierern, aber ich weiß nicht, was diese schwache Klassifikatoren sind. Können Sie es mir erklären, mit einem Beispiel und sagen Sie mir, wenn ich habe, um meine eigene schwache Klassifikatoren oder ich bin suppoused zu verwenden irgendeine Art von Algorithmus?
InformationsquelleAutor AjMeen | 2012-08-23
Du musst angemeldet sein, um einen Kommentar abzugeben.
Wenn ich AdaBoost, meine schwache Klassifikatoren wurden im wesentlichen Schwellenwerte für die einzelnen Daten-Attribut. Diese Schwellenwerte müssen eine Leistung von mehr als 50%, wenn nicht wäre es völlig zufällig ist.
Ist hier eine gute Präsentation über Adaboost und wie berechnen die schwachen Klassifikatoren:
http://www.cse.cuhk.edu.hk/~lyu/seminar/07spring/Hongbo.ppt
Gefunden hier den link: user.ceng.metu.edu.tr/~tcan/ceng734_f1112/Zeitplan/adaboost.pdf
InformationsquelleAutor marc_ferna
Schwache Klassifikatoren (oder schwache Lerner), sind Klassifikatoren, die nur geringfügig besser als ein random classifier. Diese sind so Klassifikatoren, die haben einige Ahnung, wie man Vorhersagen, die richtigen Etiketten, aber nicht so viel wie starken Klassifikatoren haben, wie, z.B., Naive Bayes, Neurel Netzwerke oder SVM.
Eines der einfachsten schwachen klassifizierern ist die Entscheidung Stumpf, eine ein-level-Decision Tree. Es wählt einen Schwellenwert für eine Funktion und teilt die Daten auf die Schwelle. AdaBoost wird, dann Zug eine Armee dieser Entscheidung Stümpfe, die jeweils den Fokus auf einen Teil der Eigenschaften der Daten.
Seit einer Entscheidung stumpf ist per definition nur eine einzige Ebene, Sie können nicht zwei Entscheidung stümpfe eins-nach-dem-anderen. Der beste Weg, um Ihr problem zu lösen IMO wäre ein 2d-decision stump basierend auf diesen zwei unterschiedlichen Funktionen. Auf diesem Weg werden Sie nehmen beide Funktionen berücksichtigt, die in der (Einzel -) Entscheidung stumpf: sagen wir
x=size
,y=weight
, dann wird Ihr stumpf sein würde (zum Beispiel) die Schwelle Ihres 2d-euklidische Länge:if sqrt(x^2 + y^2) > 6 then return +1 else return -1
. Ich wählte die Bedingung> 6
nach dem Zufallsprinzip, nur um zu zeigen, Punkt.Wenn ich sagte, Sie kann nicht mehr als eine Entscheidung stumpf, ich meinte "... in einer einzigen iteration". Sie trainieren eine single decision stump bei jeder iteration in adaboost.
InformationsquelleAutor Sicco