Hinzufügen von L1/L2-Regularisierung in PyTorch?
Gibt es eine Möglichkeit, ich kann einfach L1/L2-Regularisierung in PyTorch? Wir können uns wohl die Berechnung der regularisierten Verlust, indem Sie einfach die data_loss
mit der reg_loss
aber gibt es einen expliziten Weg, jede Unterstützung von PyTorch Bibliothek, es zu tun mehr leicht, ohne es manuell zu tun?
InformationsquelleAutor Wasi Ahmad | 2017-03-09
Du musst angemeldet sein, um einen Kommentar abzugeben.
Dies ist dargestellt in der Dokumentation für PyTorch. Haben Sie einen Blick auf http://pytorch.org/docs/optim.html#torch.optim.Adagrad. Sie können hinzufügen, L2-Verlust mit der weight decay parameter, der zur Optimierung der Funktion.
Ya, die L2-Regularisierung ist auf mysteriöse Weise Hinzugefügt, die Optimierungs-Funktionen, da der Verlust von Funktionen verwendet werden, die während der Optimierung. Sie finden die Diskussion hier discuss.pytorch.org/t/simple-l2-regularization/139/3
Ich habe einige Filialen mit L2-Verlust, also dies ist nicht sinnvoll. (Ich habe verschiedene Verlust-Funktionen)
InformationsquelleAutor Kashyap
Folgende Abschnitt soll Ihnen helfen, die für L2-Regularisierung:
InformationsquelleAutor devil in the detail
Für L2-Regularisierung,
Referenzen:
InformationsquelleAutor Sherif Ahmad