lstm

    6熱度

    2回答

    您好我正在爲lstm rnn cell使用以下函數。 def LSTM_RNN(_X, _istate, _weights, _biases): # Function returns a tensorflow LSTM (RNN) artificial neural network from given parameters. # Note, some code of this

    0熱度

    2回答

    我正在使用MNIST數據集上的Tensorflow LSTM示例。 我不明白的是爲什麼在最後一層使用logistic迴歸。 LSTM網絡的最後輸出是否比使用前一個「時間步長」的輸出更好?我怎麼才能使用LSTM網絡的最後一個輸出進行分類? # Copyright 2016 The TensorFlow Authors. All Rights Reserved. # # Licensed unde

    0熱度

    1回答

    看看官方的TensorFlow RNN tutorial和full code,我對數據如何在時代中分配有點困惑。首先,我不明白在run_epoch()函數中使用狀態變量。在main()功能,在遍歷時期,我們稱之爲: def run_epoch(session, model, eval_op=None, verbose=False): """Runs the model on the gi

    0熱度

    1回答

    我是一個非常流行的初學者。我已經建立了簡單的模型,但還沒有嘗試過類似的多層LSTM還,所以任何類型的反饋非常讚賞:) 目前我正在試圖重新編碼字符級車型由sherjilozair建從頭開始,只是因爲我想知道如何使用張量流(我以前已經構建了我自己的非常小的DL-library,由cs231n分配)。現在我正在努力構建一個簡單的2層LSTM模型,但我不確定哪裏出了什麼問題。這裏是我到目前爲止已經編寫的代

    0熱度

    1回答

    我目前正在嘗試在應用程序中使用訓練有素的模型。 我一直在使用this code來生成美國城市名稱與LSTM模型。代碼工作正常,我設法得到城市名稱。 現在,我試圖保存模型,以便我可以將其加載到不同的應用程序中,而無需再次訓練模型。 這裏是我的基本應用程序的代碼: from __future__ import absolute_import, division, print_function im

    1熱度

    1回答

    我試圖解決的問題可變長度的序列是分類問題序列的4個並行輸入批次。爲此,我需要並行4個RNN/LSTM,並在完全連接的層中進行合併。問題在於,在每個並行批次中,序列的長度都是可變的。 ,因爲它使用太多RAM我不能使用填充到最大序列長度。事實上,一些序列非常長。 因爲模型無法預測輸出,所以我無法使用填充縮小的長度。我需要完整的序列,我不能預先知道序列中有趣的部分。 我不能用桶裝,因爲如果我在一個批次劃

    1熱度

    1回答

    我是RNN和keras的新手。 我試圖比較LSTM與傳統機器學習算法(如RF或GBM)在時序數據上的性能(不一定是時間序列,但是按順序)。我的數據包含276個預測變量和一個輸出(例如股票價格,包含276個股票公司的各種信息),8564個追溯觀察值。因爲LSTM在捕捉順序趨勢方面非常出色,所以我決定使用300的time_step。從下圖中我相信我有創建多對多網絡的任務(左起最後一個數字)。 (圖片:

    4熱度

    1回答

    在建設LSTM,要求我們通過提供輸入形狀信息: input_shape =() # a tuple 另外,通過: input_length =() # an integer input_dim =() # an integer 我感到有點困惑這兩個數量。他們指出了什麼? 另外,input_dim是所謂的時間步驟嗎?

    0熱度

    1回答

    我正在使用PTB數據集來預測下一個單詞。 我的代碼:pastebin link。 模型(Batch_input)的輸入是詞彙大小爲10000的單詞。所有輸出(Batch_labels)都是單熱編碼的,因爲您可以在下面的輸出代碼部分看到示例。 以下是訓練LSTM模型後的輸出。輸入:pastebin link。 以下是輸出的一些部分: Initialized ('Loss :', 9.2027139

    4熱度

    1回答

    我想用Keras創建一個有狀態的LSTM,但我不明白如何在LSTM運行之前添加嵌入層。問題似乎是stateful標誌。如果我的網絡不是有狀態的,那麼添加嵌入層是非常直接的,並且可行。 不嵌入層的工作狀態LSTM着眼於這樣的時刻: model = Sequential() model.add(LSTM(EMBEDDING_DIM, batch_input_shape=(batchS