regularized

    0熱度

    1回答

    有一紙「抖出:一種新方法正則深層神經網絡訓練」,它可以在這裏找到:http://ieeexplore.ieee.org/abstract/document/7920425/ 一種新的正技術是在引進這篇論文可以用更多的功能來替代丟失層。我正在研究一個深度學習問題,爲此我想實施「Shakeout」技術,但問題是我無法完全理解紙張的實際流水線。有太多的數學,我仍然在努力去理解。 到目前爲止,我已經看到一

    1熱度

    2回答

    我有一個需要分析模型輸出張量的定製調整器。基本上我不能這樣做。 model = Sequential() model.add(Dense(128, name="dense_1", W_regularizer=Custom(0.1))) model.add(Dense(nb_classes, name='dense_2')) model.compile(loss='mse', optimize

    0熱度

    1回答

    執行L1正規化我目前正在讀Neural Networks and Deep Learning,我被困在一個問題。問題是更新他給出的​​使用L1正則化而不是L2正則化的代碼。 原片的使用L2正規化代碼是: def update_mini_batch(self, mini_batch, eta, lmbda, n): """Update the network's weights and b

    0熱度

    2回答

    我讀到了關於Keras實現的輟學,它似乎在使用它的反輟學版本,即使它說失落。 這是我讀Keras和Tensorflow文件我已經明白: 當我指定Dropout(0.4) 0.4意味着,在該層每個節點都有被丟棄其中有40%的機率意味着0.4是丟棄概率。因此,通過反向丟失的概念,由於保持概率爲0.6,所以其餘神經元的輸出被縮放1/0.6的因子。 (請指出,如果我的解釋是不正確。我的整個懷疑是基於這種解

    -1熱度

    1回答

    當我添加了更強的正則化(例如L2正則化參數從1到10或退出參數從0.75到0.5)時,它給了我更慢和更差的性能(例如97-98%的測試精度在3000-4000次迭代中3000-4000次迭代只能達到94-95%的測試精度)。是否有這種情況發生的原因?我可以確認一切正確實施。謝謝! 編輯:我只是想說明我的程序有過度擬合(大約1%),而且看起來有沒有退出,訓練與測試精度之間的差異大致相同。

    0熱度

    3回答

    您是否知道我如何將自定義正則化函數應用於CNTK? 特別是,我想補充損失函數的導數對輸入的影響;類似於 newLoss = loss + lambda * gradient_F(inputs) 其中F是模型學到的函數,輸入是模型的輸入。 如何在CNTK中實現此目的?我不知道如何訪問與輸入相關的梯度,以及如何將梯度與正規化器的權重進行比較。

    0熱度

    1回答

    我最近觀看了一個視頻,解釋了對於深度學習,如果添加更多數據,則不需要太多的正則化,這是有道理的。 這就是說,這個聲明是否適用於像「隨機森林」這樣的「正常」機器學習算法?如果是這樣,當爲該算法搜索最佳的超參數時,理論上你應該有輸入數據集(當然這會進一步劃分爲交叉驗證集等)和您擁有的數據一樣多,而不僅僅是樣本它。這當然意味着更長的訓練時間,對於超參數的每個組合,您都有需要接受訓練的X個交叉驗證集合等等

    0熱度

    1回答

    max_depth VS min_samples_leaf 參數max_depth和min_samples_leaf混淆了我期間使用GridSearchCV的多次嘗試最。根據我的理解,這兩個參數都是控制樹木深度的一種方法,如果我錯了,請糾正我。 max_features 我在做一個非常簡單的分類任務和不斷變化的min_samples_leaf似乎對AUC得分沒有影響;然而,調整深度可將我的AUC從

    0熱度

    2回答

    我需要添加一個L1規範作爲正則化函數,以便在我的神經網絡中創建一個稀疏條件。我想訓練我的網絡分類,我需要添加一個L1規範作爲正規化者來創建稀疏條件。我需要訓練網絡進行分類,我先從pytorch開始,但我沒有任何意識如何做到這一點。我嘗試着自己構建一個L1規範,比如here,但沒有工作。 有人可以幫助我嗎?我需要把ConvTranspose2d在此之後正則,我想做些事情像這樣Keras: model

    1熱度

    1回答

    我已經實現了CNN數字分類模型。我的模型過度配合,爲了克服過度配合,我試圖在我的成本函數中使用L2 Regularization。我有一個小混亂 我怎麼能選擇<weights>把成本公式(代碼的最後一行)。 ... x = tf.placeholder(tf.float32, shape=[None, img_size, img_size, num_channels], name='x') #