lstm

    1熱度

    1回答

    我正試圖在PyTorch中編寫一個非常簡單的機器翻譯玩具示例。爲了簡單的問題,我打開機器翻譯任務到這一個: 給定一個隨機序列([4, 8, 9 ...]),預測其元素的元素加1([5, 9, 10, ...])的序列。 Id:0, 1, 2將分別用作pad, bos, eos。 我在我的機器翻譯任務中發現了這個玩具任務中的同樣的問題。爲了調試,我使用了非常小的數據大小n_data = 50,並發現

    0熱度

    1回答

    我一直在嘗試實現一個基本的多層LSTM迴歸網絡來找出加密電子貨幣價格之間的相關性。 在遇到無法使用的訓練結果後,我決定嘗試使用一些沙盒代碼,以確保在重試完整數據集之前我已經明白了。 問題是我不能讓凱拉斯推廣我的數據。 ts = 3 in_dim = 1 data = [i*100 for i in range(10)] # tried this, didn't accomplish an

    1熱度

    1回答

    我有一個數據集C的50,000(二進制)樣本,每個樣本的128功能。類標籤也是二進制文件,即1或-1。例如,樣本看起來像這樣[1,0,0,0,1,0, .... , 0,1] [-1]。我的目標是根據二進制類(即1或-1)對樣本進行分類。我想嘗試使用Recurrent LSTM來生成一個很好的分類模型。 tr_C, ts_C, tr_r, ts_r = train_test_split(C, r,

    0熱度

    1回答

    通過張量流實現tflearn的lstm imdb example。 我使用了與tflearn模型相同的數據集,體系結構和超參數(嵌入大小,句子的最大長度等),但是我的模型的性能比tflearn示例差(10個曆元後,我的模型得到了精度約爲52%,而實例接近80%)。 如果您能給我一些建議以達到示例的適當性能,我會非常感激。 下面是我的代碼: import tensorflow as tf from

    1熱度

    1回答

    我有1025643個條目和72個特徵/屬性的測試數據。我已經用形狀(245,30,72)和形狀(245,)訓練了帶有輸入數據trainX的lstm。另外請注意,我已經指定了後退30步,因此trainX的形狀(245,30,72)。 現在訓練模型後,如果我做 model.output_shape 輸出是: (無,1) 我的理解是,它將使對測試集進行一步預測。但我希望它是30行的預測,每個未來的步驟,

    0熱度

    1回答

    我想建立一個使用Keras的LSTM網絡。 我的時間seriese例子的大小爲492。我想用3前面的例子來預測下一個例子。因此,輸入轉換爲尺寸(num_samples,3*492),輸出尺寸爲(num_samples,492)。 據this blog,我首先將我的數據大小爲形式的(num_samples,時間步長,功能) #convert trainning data to 3D LSTM sha

    1熱度

    1回答

    我有兩個時間序列A和B: A: 1,2,3,1,2,3,3,3,1,2,3,3,3 B: 0,0,1,0,0,1,1,1,0,0,1,1,1 這種簡單的訓練集說,信號B相關A.其實每次A等於3,在B的同一時間戳,值爲1. 我介紹了上面的例子來解釋我的問題。當我通過使用帶Keras的LSTM預測數據時,我希望模型能夠從系列中理解這種依賴關係。 現在我用這個配置: model.add(keras

    0熱度

    1回答

    我打算在Pytorch中實現一個帶有多個存儲單元塊 - 或多個LSTM單元的LSTM,每個層都有一個LSTM單元作爲存儲器塊的集合及其門 - 但似乎基類torch.nn.LSTM只能實現與一個LSTM單元的多層LSTM每層: lstm = torch.nn.LSTM(input_size, hidden_size, num_layers) 其中(從Pytorch的文檔): input_size

    1熱度

    1回答

    我正在使用Keras和LSTM進行小型文本生成項目。 Chollet的代碼工作得很好。有人可以向我解釋多樣性步驟0.2,0.05,1.0,1.2嗎?這裏究竟發生了什麼?提前致謝! for diversity in [0.2, 0.5, 1.0, 1.2]: print() print('----- diversity:', diversity) generated

    1熱度

    1回答

    剛開始研究RNN和LSTM ...有一個問題沒有回答我看過的任何資源: 以下是我如何理解RNN中參數共享的要點。我的問題是: 我對RNN的理解,總結如下,是否正確? 在Keras的實際代碼示例中,我研究了LSTM,它們將句子填充到相同的長度。通過這樣做,這不會沖走RNN中參數共享的全部目的嗎? 在常規的前饋神經網絡中,每個輸入單元都被分配一個單獨的參數,這意味着輸入單元(特徵)的數量對應於要學習的