lstm

    1熱度

    1回答

    我想在這裏訓練來自這裏的「standford chatbot」https://github.com/chiphuyen/stanford-tensorflow-tutorials/tree/master/assignments/chatbot,但它不使用我的GPU,但所有需要的庫(CuNN,CUDA,tensorflow-gpu等)都是安裝 我想: def train(): """ Train

    0熱度

    1回答

    我正在嘗試使用LSTM來訓練一個簡單的多對一RNN分類器。我的時間步長爲100個數據點,具有7個特徵,總共有192382個樣本。這是我的型號: model = Sequential() model.add(LSTM(50,input_shape = (100,7),name = 'LSTM',return_sequences=False)) model.add(Dropout(0.2)) m

    2熱度

    1回答

    一個Keras介紹Seq2Seq模式已經在幾個星期前公佈了可以在這裏找到:https://blog.keras.io/a-ten-minute-introduction-to-sequence-to-sequence-learning-in-keras.html 我真的不理解這個代碼的一部分: decoder_lstm = LSTM(latent_dim, return_sequences=Tru

    1熱度

    1回答

    我發現了一個訓練有素的基於LSTM的網絡。 網絡允許屏蔽。 for l in range(len(model.layers)): d=model.layers[l].__dict__ print(d['supports_masking']) print(d['name']) 是True對於我來說,輸入圖層旁邊的所有「名稱」。 我也有一個時間系列,缺少時間戳,我用正

    2熱度

    1回答

    我正面臨着一些懷疑,試圖在Tensorflow下使用多輸入序列(多變量)實現LSTM。 我以這種方式定義的LSTM: def LSTM(x): x = tf.reshape(x, [-1, input_length]) x = tf.split(x, input_length, 1) rnn_cell = rnn.MultiRNNCell([rnn.BasicLSTMCell(n_hidd

    0熱度

    1回答

    我打算在每層中實現2層和256個單元的LSTM。我正在嘗試瞭解PyTorch LSTM框架。我可以編輯的torch.nn.LSTM中的變量是input_size,hidden_​​size,num_layers,bias,batch_first,dropout和雙向。 但是,如何在單個圖層中有多個單元?

    0熱度

    1回答

    我正在用tensorflow學習CNN的LSTM。 我想將一些標量標籤放入LSTM網絡中作爲條件。 有誰知道我的意思是哪個LSTM? 如果有,請讓我知道那個的用法 謝謝。

    1熱度

    2回答

    我有250天的數據,72個訓練樣本的特徵和一個目標變量列。並且想要預測未來30天內每個具有72個特徵的21351行。我將如何重塑我的數據輸入和輸出。看起來我有點混亂,圖書館給了我關於形狀不兼容的錯誤。 我被重塑爲: trainX.reshape(1, len(trainX), trainX.shape[1]) trainY.reshape(1, len(trainX)) 但給我的錯誤: V

    1熱度

    2回答

    試圖建立一個單一輸出迴歸模型,但似乎有問題在最後一層 inputs = Input(shape=(48, 1)) lstm = CuDNNLSTM(256,return_sequences=True)(inputs) lstm = Dropout(dropouts[0])(lstm) #aux_input auxiliary_inputs = Input(shape=(48, 7))

    0熱度

    1回答

    我是神經網絡和LSTM的新手,因此需要一些幫助。 我有100個不同時間長度的文件,每個文件都有13個特徵。每個文件都代表一個輸出類。 現在,我想有一個LSTM網絡,可以分類這些時間序列文件。 我該怎麼處理?我應該如何處理/準備我的數據?網絡的輸入應該是什麼樣的? 在此先感謝。