lstm

    4熱度

    1回答

    這更像是一個深度學習的概念問題,如果這不是一個正確的平臺,我會在別處考慮。 我正在嘗試使用Keras LSTM順序模型來學習文本序列並將它們映射到數值(迴歸問題)。 事情是,學習總是在高損失(訓練和測試)上過快收斂。我已經嘗試了所有可能的超參數,並且我感覺這是一個局部最小問題,會導致模型的高偏見。 我的問題基本上都是: 如何初始化給出這個問題的權重和偏見? 要使用哪個優化器? 我有多深應擴大網絡(

    1熱度

    1回答

    Tensorflow的DropoutWrapper允許將壓差應用於單元的輸入,輸出或狀態。然而,我還沒有看到選擇對細胞的經常權重(原始LSTM公式中使用的8種不同矩陣中的4種)做同樣的事情。我只想在執行我自己的Wrapper之前檢查是否屬於這種情況,我相信這會非常簡單。

    0熱度

    2回答

    全部。我想從一個LSTM模型生成凍結模型(https://github.com/roatienza/Deep-Learning-Experiments/tree/master/Experiments/Tensorflow/RNN)。在我的選擇中,我應該凍結最後一個預測節點並使用「bazel-bin/tensorflow/python/tools/freeze_graph --input_binar

    0熱度

    1回答

    起初我以爲我誤解了關於Tensorflow API的一些東西。現在我懷疑我只是誤解了如何在Jupyter筆記本中管理變量範圍。 Tensorflow的LSTM教程示例recurrent_network.py如果將所有代碼都插入jupyter筆記本中的單個單元並運行,它的工作原理非常漂亮。但是,當我瓜分程序爲獨立的單元,以正確的順序(先定義等)運行一切,即使,我得到一個變量的作用域錯誤: 15

    0熱度

    1回答

    我寫過一個代碼來設計Tensorflow中的長期短期存儲網絡。代碼工作後,我做了很多的變化,並閱讀本網站的一些意見。 這部分代碼是很重要的解釋: tf.reset_default_graph() with tf.variable_scope("conv1"): cell= tf.contrib.rnn.LSTMCell(n_hidden_units, forget_bias=0.0,

    1熱度

    1回答

    爲tf.contrib.legacy_seq2seq.embedding_rnn_seq2seq的正式文檔具有用於output_projection參數如下解釋: output_projection:無或一對(W,B)輸出投影重量和偏見; W的形狀爲[output_size x num_decoder_symbols],B的形狀爲[num_decoder_symbols];如果提供並且feed_p

    1熱度

    1回答

    我的數據集有多個包含順序數據和非順序數據的功能。 如何在模型中連接或使用它們以使用所有功能而不僅僅是順序或非順序的功能來解決問題? 在此先感謝。

    0熱度

    1回答

    我保存了一個訓練有素的LSTM模型,我想恢復預測以在測試中使用它。我試圖按照this post。但我收到錯誤。這裏是我的嘗試: x = tf.placeholder('tf.float32', [None, input_vec_size, 1]) y = tf.placeholder('tf.float32') def recurrent_neural_network(x): l

    2熱度

    1回答

    所以我想練習如何在Keras和所有參數(樣本,時間步長,功能)使用LSTMs。 3D列表令我困惑。 因此,我有一些股票數據,如果列表中的下一個項目高於5的門檻值+2.50,它會購買或出售,如果它處於該閾值的中間,則這些是我的標籤:我的Y. 對於我的特徵我的XI具有[500,1,3]爲我的500個樣本的數據幀和每個時步爲1,因爲每個數據爲3個特徵1小時增量和3。但我得到這個錯誤: ValueErro

    0熱度

    1回答

    編輯補充: 我發現了什麼,我認爲是一個可行的解決方案:https://bleyddyn.github.io/posts/2017/10/keras-lstm/ 我試圖用一個轉換次數/ LSTM網絡控制機器人。我想我已經設置了一切,所以我可以開始在重播內存中對批量數據進行培訓,但我無法弄清楚如何實際使用它來控制機器人。簡體測試代碼如下。 import numpy as np from keras