Ist es gut lernen-rate für die Adam Methode?

Trainiere ich meine Methode. Ich hab das Ergebnis wie unten. Ist es eine gute Lern-rate? Wenn nicht, ist es hoch oder gering?
Das ist mein Ergebnis

Ist es gut lernen-rate für die Adam Methode?

lr_policy: "step"
gamma: 0.1
stepsize: 10000
power: 0.75
# lr for unnormalized softmax
base_lr: 0.001
# high momentum
momentum: 0.99
# no gradient accumulation
iter_size: 1
max_iter: 100000
weight_decay: 0.0005
snapshot: 4000
snapshot_prefix: "snapshot/train"
type:"Adam"

Diese Referenz ist

Mit geringen Lernerfolg bewertet die Verbesserungen wird linear sein. Mit hoher Lern-Tarife werden Sie beginnen, sich mehr exponentiell. Higher learning-die Preise Zerfall der Verlust schneller, aber Sie stecken im schlechtesten Werte der Verlust
Ist es gut lernen-rate für die Adam Methode?

  • Es gibt sehr wenig Kontext hier, aber es sieht gut aus. Sie können versuchen, die Steigerung der Lern-rate (spart die Zeit der Ausbildung), bis Sie es nicht mehr konvergiert. Was ist die Ausbildung einstellen der Genauigkeit durch das Ende?
  • In der obigen Einstellung, die endgültige Fehlerquote bei 50000 Iterationen ist 0,05. Ich bin die Erhöhung der base_lr zu 0.002, anstelle von 0.001 zu sehen, die Verbesserung
  • Adam hat eine innen-LR, so dass die änderung der externen LR über die Schritte möglicherweise nicht sinnvoll.
InformationsquelleAutor John | 2017-03-23
Schreibe einen Kommentar