2017-09-01 66 views

回答

0

您可以覆蓋hyperparamupdate_rule每一個參數,它指定optimizer的更新策略,像下面的鏈接,

model.l1.W.update_rule.hyperparam.lr = 0.01

有關詳細信息,我已經回答了同樣的問題在

How to implement separate learning rate or optimizer in different layer in Chainer?

順便說一句,chainer's Function沒有任何parameter被更新,t hus功能沒有update_rule

+0

我很抱歉再次遇到你。當我設置model.l1.W.update_rule.hyperparam.lr = 0.01。如何在設置單個圖層的學習率時應用「每個時代之後的衰落」? – machen

+0

您可以創建自己的「擴展」功能來更改這些值。 請參閱https://gist.github.com/corochann/22ae506123805e1ddece529d8db5b692,例如您的自定義擴展學習率控制。 – corochann