lstm

    3熱度

    1回答

    我想通過Yang et al.使用關注機制的實現。我發現了一個使用這種注意力機制的自定義層的工作實現here。而不是使用我的LSTM的輸出值: my_lstm = LSTM(128, input_shape=(a, b), return_sequences=True) my_lstm = AttentionWithContext()(my_lstm) out = Dense(2, activa

    3熱度

    1回答

    這是我在tensorflow中用於訓練GAN的代碼。我正在訓練des能夠區分假冒和原始視頻。我的代碼不是很重要相關部分,以避免過度的流動大部分是代碼錯誤 X = tf.placeholder(tf.float32, shape=[None, 28, 28]) D_W1 = tf.Variable(xavier_init([1024, 128])) D_b1 = tf.Variable(tf.

    3熱度

    1回答

    我在Keras的LSTM上遇到了一些麻煩。我已經重塑了一些數據(NUM_ROWS,num_timesteps,num_dimensions),但我得到一個錯誤,當我嘗試適合說 TypeErrorTraceback (most recent call last) <ipython-input-61-a1844d288e79> in <module>() 10 print("Actual

    0熱度

    1回答

    我想要構建40級LSTM分類器來分析時間序列數據。我有從13個傳感器收集的13維實時數據。當我運行下面的代碼時,我不斷收到此錯誤消息。 ValueError: Error when checking model input: the list of Numpy arrays that you are passing to your model is not the size the model e

    0熱度

    1回答

    我正在研究一個項目,需要在將噪聲添加到所有變量後評估CNN/RNN的性能。例如,如果我們有一個簡單的MLP,我想爲所有的權重參數添加一個隨機高斯噪聲,這並不困難。但是,操作RNN的變量似乎並不容易。例如,tf.contrib.rnn.BasicLSTMCell內部的變量是封裝的,用戶不可訪問。 我發現了一種可能的方法,通過使用tf.train.saver()函數來完成此操作。我可以打印所有變量,包

    1熱度

    2回答

    我嘗試爲GCP ML Engine包編寫我自己的估計器model_fn()。餘解碼的使用embedding_rnn_decoder輸出的序列如下所示: outputs, state = tf.contrib.legacy_seq2seq.embedding_rnn_decoder( decoder_inputs = decoder_inputs, initial_state =

    0熱度

    1回答

    我正在使用深度流處理人類活動識別問題。 每個樣本都是大小爲(20,3,no_of_frames)的Matlab文件,即每幀中有20行和3列,並且幀數可能因不同樣本而異。 我用0填充了所有的樣本,所以它們都包含相同的幀數(比如說100)。 所以現在所有樣本的大小都是(20,3,100)。 也讓樣本總數沒有400,沒有班是10 我如何安排我的數據集,從而在Keras使用LSTM。您是否還會爲分類目的提

    1熱度

    1回答

    下面的網絡代碼應該是您的經典簡單LSTM語言模型,在一段時間後開始輸出nan損失...在我的訓練集上需要幾個小時,我無法複製它很容易在較小的數據集上。但它總是在嚴肅的訓練中發生。 Sparse_softmax_with_cross_entropy應該在數值上是穩定的,所以它不可能是原因...但除此之外,我沒有看到任何其他可能導致圖形問題的節點。可能是什麼問題呢? class MyLM():

    1熱度

    1回答

    我有一個關於如何在Keras中一起工作的卷積層和LSTM層的問題。 假設我正在使用CNN來確定圖像的特徵映射。在特定的卷積層之後,我有一個特徵映射,例如F,其維數是(H,W,C)。現在,我想使用此特徵映射的每一行,如[1 ::],[2 ::],.....作爲跟隨的LSTM層的輸入,但重複H次。 LSTM的輸出是(H,W)張量。 有沒有辦法做到這一點在keras與默認圖層?或者我需要實現一個自定義圖

    0熱度

    1回答

    我有成千上萬的視頻,他們每個人包括固定幀數是35 我嘗試通過訓練LSTM模型進行分類的視頻。但我不確切知道人們如何保持視頻的順序結構並訓練LSTM模型。 所以我想要做的是; 閱讀來自數據集 視頻經由CNN獲得的視頻和提取特徵對於每個幀35幀 飼料那些35個特徵LSTM層 - 如何可以養活每個視頻(35幀)批量生產LSTM? Keras中的fit功能被高度使用。然而我不知道我怎麼能保持影像的順序結構