deep-learning

    -1熱度

    1回答

    我正在使用以下Seq2Seq模型的實現。現在,如果我想傳遞一些輸入並獲得編碼器隱藏狀態的相應值(self.encoder_last_state),我該怎麼做? https://github.com/JayParks/tf-seq2seq/blob/master/seq2seq_model.py

    -1熱度

    1回答

    我在訓練輸入數據中有類別信息,我想知道什麼是規範化它的最好方法。 類別信息,如「城市」,「性別」等 我想使用Keras處理過程。

    7熱度

    2回答

    我試圖用多個softmax輸出創建一個張量流的網絡,每個輸出都有不同的大小。網絡架構是: 輸入 - > LSTM - >中止。然後我有2個softmax層:10個輸出的Softmax和20個輸出的Softmax。原因是因爲我想生成兩組輸出(10和20),然後將它們組合起來以產生最終輸出。我不知道如何在Tensorflow中做到這一點。 以前,爲了製作一個像上面描述的網絡,但只有一個softmax,

    1熱度

    2回答

    我正在訓練一個簡單的MLP,用Keras對MNIST數字進行分類。我遇到了一個問題,無論我使用哪種優化器和學習速度,模型都不會學習/下降,而且我的準確性保持與隨機猜測一樣好。 下面的代碼: model2=Sequential() model2.add(Dense(output_dim=512, input_dim=784, activation='relu', name='dense1', ke

    1熱度

    1回答

    我正在實施一個損失函數,該函數將使用由0s and 1s組成的掩模張量(M)來消除一些損失值,給出預測(P)和地面實況(G)張量。 所以,我有2種可能的方式: 逐元素乘法: loss = K.sum(M * K.binary_crossentropy(G, P)) 條件選擇: bin_ce = K.binary_crossentropy(G, P) loss = K.sum(tf.where(t

    1熱度

    1回答

    應用自定義學習率變量在Tensorflow,之後我得到我的損失來看,我把它給了優化,並增加了必要的分化和更新方面的計算圖: global_counter = tf.Variable(0, dtype=DATA_TYPE, trainable=False) learning_rate = tf.train.exponential_decay( INITIAL_LR, # Base lear

    2熱度

    2回答

    我正在嘗試使用神經網絡進行分類(我正在使用tensorflow)。 不幸的是,我的神經網絡訓練陷入了42%的精度。 我有4個類,我試圖分類數據。 不幸的是,我的數據集是不均衡的,這意味着: 數據 43%屬於1類(是的,我的網絡卡預測僅此) 37%,至2級 13%至3類 7%至4類 我使用的優化是AdamOptimizer和成本函數是tf.nn.softmax_cross_entropy_with_

    0熱度

    1回答

    我正在嘗試使用LSTM來訓練一個簡單的多對一RNN分類器。我的時間步長爲100個數據點,具有7個特徵,總共有192382個樣本。這是我的型號: model = Sequential() model.add(LSTM(50,input_shape = (100,7),name = 'LSTM',return_sequences=False)) model.add(Dropout(0.2)) m

    1熱度

    2回答

    我正嘗試用pycaffe閱讀咖啡網絡中的體重和偏見。 這裏是我的代碼 weight = net.params[layer_name][0].data bias = net.params[layer_name][1].data 但是,我的網絡中的某些層沒有偏見,所以會有這Index out of range錯誤。 所以我的問題是我可以用 if(net.params[layer_name][1]

    1熱度

    1回答

    我現在正在處理醫學圖像分類問題。圖像是患者大腦的多個切片。數據已被清除。我有150名AD患者,150 MCI(輕度認知障礙)患者,150名NC患者(正常)。每個患者有96個dicom文件或者同樣說96個切片。每片是160 * 160。 我使用Tensorflow cifar10代碼作爲我的模板,並使代碼工作,我必須更改它的read_cifar10部分。我按照下面的鏈接建議更改代碼。 Attach