neural-network

    2熱度

    2回答

    我正在嘗試使用神經網絡進行分類(我正在使用tensorflow)。 不幸的是,我的神經網絡訓練陷入了42%的精度。 我有4個類,我試圖分類數據。 不幸的是,我的數據集是不均衡的,這意味着: 數據 43%屬於1類(是的,我的網絡卡預測僅此) 37%,至2級 13%至3類 7%至4類 我使用的優化是AdamOptimizer和成本函數是tf.nn.softmax_cross_entropy_with_

    0熱度

    1回答

    我正在嘗試使用LSTM來訓練一個簡單的多對一RNN分類器。我的時間步長爲100個數據點,具有7個特徵,總共有192382個樣本。這是我的型號: model = Sequential() model.add(LSTM(50,input_shape = (100,7),name = 'LSTM',return_sequences=False)) model.add(Dropout(0.2)) m

    1熱度

    2回答

    我正嘗試用pycaffe閱讀咖啡網絡中的體重和偏見。 這裏是我的代碼 weight = net.params[layer_name][0].data bias = net.params[layer_name][1].data 但是,我的網絡中的某些層沒有偏見,所以會有這Index out of range錯誤。 所以我的問題是我可以用 if(net.params[layer_name][1]

    1熱度

    1回答

    我構建了一個帶有兩個隱藏層的神經網絡。當我啓動了會議由我保存會話: saver.save(sess, "model.ckpt") 如果我留在同一個會議上,我推出這個代碼: restorer=tf.train.Saver() with tf.Session() as sess: restorer.restore(sess,"./prova") new_graph = tf.

    1熱度

    1回答

    我是新的深度學習,我想實現自動編碼器異常檢測。 我有兩個問題: 是譯碼器層總是編碼層的鏡像版本? 由於隱蔽層代碼(H)表示的數據的壓縮represenation,的權重能將它們考慮的輸入要素的分類?

    1熱度

    1回答

    這是一個有鑑別力的網絡,我正在訓練,所以我可以在生成網絡中使用它。我訓練了一個具有2個特徵的數據集並進行二元分類。 1 =打坐0 =不打坐。 (數據集來自siraj raval的視頻之一)。 由於某些原因,輸出層(ol)總是在每個測試用例中輸出[1]。 我的數據集:https://drive.google.com/open?id=0B5DaSp-aTU-KSmZtVmFoc0hRa3c impor

    0熱度

    1回答

    我正試圖建立一個2輸入神經元(+1 bias)的簡單網絡,進入1個輸出神經元以教它「和」功能。它是基於mnist-clissification的例子,所以對於任務來說它可能過於複雜,但是關於這種網絡的一般結構對我來說,所以請不要說「你可以用numpy來做」或者什麼的,它是關於張量流NNs對我來說。因此,這裏是代碼: import tensorflow as tf import numpy as

    0熱度

    1回答

    我有一個Conv2D圖層產生形狀張量(batch_size, 600, 105, 8)。這是一批feature_map爲8的歌譜圖。現在我想在每個時幀(600)上應用一個大小爲48的「密集」圖層,以生成形狀(batch_size, 600, 48)的張量。默認Keras Dense層似乎並沒有削減它... 有什麼建議嗎? 這是我的功能 def build_cnn(input_shape=(None

    1熱度

    2回答

    機器學習和計算器的新手。 最近,我一直在嘗試創建一種機器學習算法,根據對象的反射來估計光源的方向。 我知道這可能是一個複雜的主題,這就是爲什麼,作爲第一步,我試圖儘可能簡化它。 我首先將問題從迴歸問題轉換爲分類問題,只將其作爲輸出:光源位於對象的左側或光源位於對象的右側。 我也只爲一個角度變化我的數據集。 短版我的問題: 你認爲這是可以做到這樣的事情與機器學習? (我的經驗太難以確定了) 如果是,

    0熱度

    1回答

    我一直在用神經網絡進行實驗。我遇到了有關要使用的激活功能的一般問題。這可能是一個衆所周知的事實,但我無法正確理解。我見過的很多例子和論文都是關於分類問題的,他們在輸出層使用sigmoid(二進制)或softmax(多類的情況下)作爲激活函數,這很有意義。但是我沒有看到在迴歸模型的輸出層中使用了任何激活函數。 所以我的問題是,它是由選擇我們不使用任何激活函數在迴歸模型的輸出層,因爲我們不希望激活函數