Multinomial Naive Bayes-parameter alpha-Einstellung? scikit-learn
Nicht jeder weiß, wie der parameter alpha, wenn dabei die naive bayes-Klassifikation?
E. g. Ich benutzte Tasche der Wörter, die Erstens zu bauen, der feature-matrix und jede Zelle der matrix ist, zählt Wörter, und ich habe dann tf(term frequency) der normalisierten matrix.
Aber wenn ich Naive bayes zu bauen Klassifikator-Modell, die ich wählen zu verwenden multinomiale N. B (was ich denke, das ist richtig, nicht Bernoulli und GAUSS). die Standard-alpha-Einstellung von 1,0 (die Dokumente, sagte, es ist die Laplace-Glättung, ich habe keine Ahnung was ist).
Das Ergebnis ist wirklich schlecht, wie nur 21% wieder zu finden, die positive Klasse (Zielklasse). aber wenn ich alpha = 0.0001 (ich randomly picked), die Ergebnisse (95% recall score.
Außerdem überprüfte ich die multinomiale N. B Formel, ich denke, es ist, weil die alpha-problem, denn wenn ich verwendet, zählt der Wörter als Funktion des alpha = 1 ist nicht Einfluss auf die Ergebnisse, doch seit der tf ist zwischen 0-1, alpha = 1 ist, wirklich Einfluss auf die Ergebnisse dieser Formel.
Ich auch getestet, die Ergebnisse nicht verwenden, tf, nur zählt der Sack der Wörter, die Ergebnisse zu 95% als gut, so, hat jemand wissen, wie man den alpha-Wert? weil ich tf als feature-matrix.
Dank.
- Kannst du die Präzision erhalten den Rückruf 95%?
- haben Sie check out scikit-learn.org/stable/modules/generated/... ?
- Ich habe experiment auf ein anderes dataset, das tf, alpha = 1.0, den Rückruf von 'positiv' ist, 0.11, die Präzision des 'positiven' ist 1.00 (komisch?). und nachdem ich die alpha = 0.0001,tf, die recall-und precision von 'positiv' sind, 1,00 Euro , und das, nachdem ich entfernen, tf, nur verwenden Grafen von Wörtern als Funktion, und legen Sie alpha = 1.0, den Rückruf positiv ist, ist 0.98, die Präzision positiv ist 0.97. Ich verwendete Datensatz, die negativen haben 4243 Instanzen und positiven 900 Instanzen.
- ja, ich habe das web, das heißt in der Praxis, gebrochene zählt wie tf-idf kann auch arbeiten. und darüber, wie man alpha, keine weiteren Verweise.
Du musst angemeldet sein, um einen Kommentar abzugeben.
In Multinomial Naive Bayes, die
alpha
parameter ist, was ist bekannt als eine hyperparameter; d.h. ein parameter, der steuert die form des Modells selbst. In den meisten Fällen ist der beste Weg, um zu bestimmen, die optimalen Werte für hyperparameters ist durch eine raster-Suche über die möglichen parameter-Werte, mit cross-Validierung zu bewerten, die Leistung des Modells auf Ihre Daten an jedem Wert. Lesen Sie die obigen links für details, wie dies zu tun mit scikit-learn.alpha
hier ist es auf Initialisierung Zeit). Ein normales Modell-parameter, auf der anderen Seite, ist frei schwebend und setzen durch Anpassung des Modells an die Daten. Eine sinnvolle Möglichkeit darüber nachzudenken ist, dass hyperparameters des Modells definieren: also in mancher HinsichtMultinomialNB
mitalpha=1
undMultinomialNB
mitalpha=2
sollte eigentlich als grundlegend verschiedenen Modelle.