Tag: adaboost

AdaBoost ist ein meta machine-learning-Algorithmus. Es führt mehrere Runden von training, in dem die besten schwachen Klassifikatoren ausgewählt werden. Am Ende jeder Runde, die noch fehlerhaft training Proben erhalten ein höheres Gewicht, was zu mehr Fokus auf diese Beispiele während der nächsten Runde der Auswahl eines schwachen Klassifizierer.

Mit adaboost in R caret-Paket

Anzahl der Antworten 4 Antworten
Habe ich mit der ada - R-Paket für eine Weile, und vor kurzem caret. Laut der Dokumentation caret's train() Funktion haben sollte, eine option, die verwendet ada. Aber, caret-Zeichen ist kotzen mich an wenn ich mit der

Schwache Klassifizierer

Anzahl der Antworten 2 Antworten
Ich versuche zu implementieren ist eine Anwendung, die verwendet AdaBoost-Algorithmus. Ich weiß, dass AdaBoost verwendet set von schwach-klassifizierern, aber ich weiß nicht, was diese schwache Klassifikatoren sind. Können Sie es mir erklären, mit einem Beispiel und sagen

Mit GridSearchCV mit AdaBoost und DecisionTreeClassifier

Anzahl der Antworten 1 Antworten
Ich bin versucht zu tunen eines AdaBoost-Klassifizierer ("ABT") mit einem DecisionTreeClassifier ("DTC") als base_estimator. Ich würde gerne tunen beide ABT und DTC-Parameter gleichzeitig, bin mir aber nicht sicher, wie dies zu tun - pipeline nicht funktionieren sollte,

AdaBoostClassifier mit verschiedenen Basis-Lerner

Anzahl der Antworten 3 Antworten
Ich versuche, mit AdaBoostClassifier mit einem base-learner andere als DecisionTree. Ich habe versucht, SVM und KNeighborsClassifier aber ich bekomme Fehler. Kann jemand Punkt aus den Klassifikatoren, die verwendet werden können mit AdaBoostClassifier? InformationsquelleAutor der Frage vdesai |