Tag: grid-search
In machine learning, grid-search bezieht sich auf mehrere Läufe zu finden, der optimale Wert des Parameters(s)/hyperparameter(s) eines Modells, z.B. mtry für random-forest-oder alpha -, beta -, lambda-für glm, oder C -, kernel-und gamma für den SVM.
2
Antworten
Ist es ein Weg um die Funktion, Bedeutung aus sklearn ist GridSearchCV? Beispiel : from sklearn.model_selection import GridSearchCV print("starting grid search ......") optimized_GBM = GridSearchCV(LGBMRegressor(), params, cv=3, n_jobs=-1) # optimized_GBM.fit(tr, yvar) preds2 = optimized_GBM.predict(te) Gibt es eine
1
Antworten
Ich bin mit GridSearchCV für die cross-Validierung einer linearen regression (nicht ein Klassifikator noch eine Logistische regression). Benutze ich auch StandardScaler für die Normalisierung von X Mein dataframe hat 17 Funktionen (X) und 5-Zielen (y) (Beobachtungen). Um
5
Antworten
In einfachen Worten, was ist der Unterschied zwischen Kreuz-Validierung und der grid-search? Wie funktioniert der grid-search arbeiten? Sollte ich zuerst tun eine cross-validation und dann eine Netz Suche? InformationsquelleAutor Linda | 2013-10-12
3
Antworten
Bin ich mit einem Beispiel extrahiert aus dem Buch "Mastering Machine Learning mit scikit lernen". Verwendet es eine Entscheidung Baum, um vorherzusagen, ob die einzelnen Bilder auf einer web-Seite ist ein Werbung oder Artikel-Inhalte. Bilder, die eingestuft
2
Antworten
Ich versuche zu erstellen, ein Random Forest Modell mit GridSearchCV aber bin immer ein Fehler in Bezug auf param_grid: "ValueError: Invalid parameter max_features für Schätzer Pipeline. Überprüfen Sie die Liste der verfügbaren Parameter mit ` - Schätzer.get_params().keys()".
4
Antworten
Ich bin auf der Suche nach einem Weg, um Graphen grid_scores_ von GridSearchCV in sklearn. In diesem Beispiel versuche ich Netz Suche für die beste gamma-und C-Parameter für eine SVR-Algorithmus. Mein code sieht wie folgt aus: C_range
1
Antworten
Ich bin versucht zu tunen eines AdaBoost-Klassifizierer ("ABT") mit einem DecisionTreeClassifier ("DTC") als base_estimator. Ich würde gerne tunen beide ABT und DTC-Parameter gleichzeitig, bin mir aber nicht sicher, wie dies zu tun - pipeline nicht funktionieren sollte,
1
Antworten
Nach der Ermittlung der optimalen Parameter mit einem pipeline und GridSearchCVwie kann ich pickle/joblib diesem Prozess die spätere Wiederverwendung? Ich sehe, wie Sie dies tun, wenn es einen einzelnen Klassifikator... from sklearn.externals import joblib joblib.dump(clf, 'filename.pkl') Aber