lstm

    2熱度

    1回答

    我正在使用LSTM圖層在多個存儲單元之間複用。這就是說,有幾個輸入選項,我只想將其中的一個輸入到隱藏層。我以這種方式安排了LSTM的輸入,所以它會根據input_gate,forget_gate和output_gate選擇一個合適的單元,除了cell_input之外,還會傳遞給它。 但是,似乎LSTM層轉換了存儲單元的值,而我期望它將它們按原樣傳遞給輸出。 例如,我傳遞下列輸入,這是我在對應於in

    14熱度

    2回答

    有誰知道Caffe是否存在一個很好的LSTM模塊?我從russel91的github賬戶中發現了一個,但顯然包含示例和解釋的網頁消失了(原名爲http://apollo.deepmatter.io/ - >現在它僅重定向到github page,它沒有任何示例或解釋)。

    0熱度

    2回答

    由於遞歸性質,我可以通過一次輸入一個項目來激活一個lstm,它只有一個輸入神經元,帶有一個序列。 但是,當我嘗試用相同的技術訓練網絡時,它從不會收斂。培訓永遠持續下去。 下面是我正在做的,我將一個自然語言字符串轉換爲二進制,然後將一個數字作爲時間。我轉換成二進制的原因是因爲網絡只取0和1之間的值。 我知道訓練的工作原理,因爲當我訓練輸入神經元的數值爲1時, :[0],它收斂並訓練良好。 我想我可以

    1熱度

    1回答

    我有一個具有相同數量標籤的文本數據集 - 0,1,2,3,4。我跑了Keras binary classification例如LSTM(IMDB例如)在其網站上有我的數據集和編譯行改爲 "model.compile(loss='categorical_crossentropy', optimizer='adam', class_mode="categorical")" 但模型預測只有1類,也就

    1熱度

    1回答

    我已經通過一個序列訓練了一個LSTM,並嘗試測試它是否可以合成某些輸出序列,但有趣且不幸的是,它非常快速,即在2個時間步後穩定到一個固定輸出,意味着一個確切的序列相同的值。 現在我已經改變了初始化,但輸出在2步後總是相同的。培訓或抽樣可能有什麼錯誤? 對不起,我不能給更多的上下文,因爲整個程序是一個太大而不能發佈在這裏。

    1熱度

    1回答

    我使用LSTM作爲時間序列預測網絡中的隱藏層功能。輸入規範化是否必要?如果是,data = data/sum(data)是否正確歸一化? 輸出是否應該用輸入標準化?

    0熱度

    1回答

    在pybrain LSTM圖層中有用於存儲值的緩衝區。 'bufferlist': [ ('ingate', 20), ('outgate', 20), ('forgetgate', 20), ('ingatex', 20), ('outgatex', 20), ('forgetgatex', 20

    0熱度

    1回答

    我正試圖在pybrain中實現雙向LSTM網絡。任何人都有任何示例代碼?