Der beste Weg, um zu berechnen, Klassifikation, Genauigkeit?
Ich kenne eine Formel zur Berechnung der klassifikationsgenauigkeit ist X = t /n * 100 (wo t ist die Anzahl der korrekten Einstufung und n ist die Gesamtzahl der Proben. )
Aber, sagen wir, wir haben insgesamt 100 Proben, 80 in der Klasse A 10 Klasse B, 10 in der Klasse C.
Szenario 1: Alle 100 Proben zugeordnet wurden, der Klasse A, bei der Anwendung der Formel, wir bekamen Genauigkeit entspricht 80%.
Szenario 2: 10 Proben gehören B wurden korrekt zugewiesen, Klasse B ;10 Proben gehören zu C waren korrekt zugeordnet-Klasse C-als auch; 30 Proben gehören zu Einer richtig zugeordnet zu Klasse A; die restlichen 50 Proben gehören zu Einer wurden falsch zugewiesen wurde C. Durch die Verwendung der Formel, wir bekamen Genauigkeit von 50%.
Meine Frage ist:
1: Können wir sagen, dass Szenario 1 hat eine höhere Genauigkeit rate dann Szenario 2?
2: gibt es eine Möglichkeit zu berechnen, die Genauigkeit rate für die Einstufung problem?
Vielen Dank Voraus!
- Ich denke was du suchst ist die Precision vs. Recall ... nur eine google-Suche auf diese und Lesen
Du musst angemeldet sein, um einen Kommentar abzugeben.
Klassifizierung Genauigkeit ist definiert als "Prozentsatz der richtigen Vorhersagen". Das ist der Fall, unabhängig von der Anzahl der Klassen. Also Szenario 1 hat eine höhere klassifikationsgenauigkeit als in Szenario 2.
Jedoch, es klingt wie das, was Sie wirklich Fragen ist für eine alternative Bewertung einer Metrik oder Prozess, der "Belohnungen" Szenario 2 für nur bestimmte Arten von Fehlern. Ich habe zwei Vorschläge:
Den Bewertungsparameter Abschnitt der scikit-learn Dokumentation hat viele gute Informationen über die classifier-Auswertung, auch wenn Sie nicht ein scikit-learn user.