XGBoost XGBClassifier Standardmäßig in Python

Ich bin versucht, XGBoosts Klassifizierer klassifizieren einige binäre Daten. Wenn ich die einfachste Sache und verwenden Sie die Standardeinstellungen (wie folgt)

clf = xgb.XGBClassifier()
metLearn=CalibratedClassifierCV(clf, method='isotonic', cv=2)
metLearn.fit(train, trainTarget)
testPredictions = metLearn.predict(test)

Bekomme ich Recht gute klassifikationsergebnisse.

Mein Nächster Schritt war, zu versuchen mein tuning-Parameter. Raten aus den Parametern guide an...
https://github.com/dmlc/xgboost/blob/master/doc/parameter.md
Ich wollte von Standard-und von dort aus arbeiten...

# setup parameters for xgboost
param = {}
param['booster'] = 'gbtree'
param['objective'] = 'binary:logistic'
param["eval_metric"] = "error"
param['eta'] = 0.3
param['gamma'] = 0
param['max_depth'] = 6
param['min_child_weight']=1
param['max_delta_step'] = 0
param['subsample']= 1
param['colsample_bytree']=1
param['silent'] = 1
param['seed'] = 0
param['base_score'] = 0.5

clf = xgb.XGBClassifier(params)
metLearn=CalibratedClassifierCV(clf, method='isotonic', cv=2)
metLearn.fit(train, trainTarget)
testPredictions = metLearn.predict(test)

Das Ergebnis ist alles, was vorhergesagt wird, um eine der Bedingungen sein, und nicht die anderen.

neugierig, wenn ich

params={}

was ich erwartet hatte, um mir die gleichen Standards wie nicht füttern alle Parameter, bekomme ich die gleiche Sache passiert

Also weiß jemand, was die Vorgaben für XGBclassifier ist? so, dass ich anfangen kann-tuning?

Diese Frage trifft auf ein ähnliches Verhalten, aber keine Antwort gegeben stackoverflow.com/questions/33470477/...

InformationsquelleAutor Chris Arthur | 2016-01-08

Schreibe einen Kommentar