deep-learning

    2熱度

    2回答

    我堅持着修復與Tensorflow預訓練的網絡.... import tensorflow as tf import os os.environ['TF_CPP_MIN_LOG_LEVEL']='2' sess=tf.Session() saver = tf.train.import_meta_graph('./model/20170512-110547/model-20170512-1

    1熱度

    1回答

    我使用Kaggle Rossmann dataset來訓練一個寬而深的模型。代碼與教程中給出的代碼非常相似。我只更改用於建模的數據。 我正在使用的代碼如下: """Example code for TensorFlow Wide & Deep Tutorial using TF.Learn API.""" from __future__ import absolute_import from

    1熱度

    1回答

    我使用多層感知器編寫了mnist代碼。但它沒有顯示準​​確性和損失函數的標量(但它成功地顯示了一個模型圖) 如果你知道,你能給我一個線索嗎? Tensorflow版本:1.2.0 這些是我想在Tensorboard中顯示的功能。 def loss(label,y_inf): # Cost Function basic term with tf.name_scope('loss'

    0熱度

    1回答

    我打算在每層中實現2層和256個單元的LSTM。我正在嘗試瞭解PyTorch LSTM框架。我可以編輯的torch.nn.LSTM中的變量是input_size,hidden_​​size,num_layers,bias,batch_first,dropout和雙向。 但是,如何在單個圖層中有多個單元?

    2熱度

    1回答

    訓練模型,我們可以使用cntk.squared_error()功能,這樣在查找丟失: loss = cntk.squared_error(z, l) 但我感興趣的是找到絕對誤差方面的損失。下面的代碼不起作用: loss = cntk.absolute_error(z, l) 提示錯誤爲: AttributeError: module 'cntk' has no attribute 'abs

    0熱度

    1回答

    我想編譯CNN模型成功地預測我x_test的價值: y_test_predict= model.predict(x_test[3]) 我x_test[3]的形狀有關(8000, 1) ,但此行的代碼給了我這個錯誤回報,我不明白真正做到: Traceback (most recent call last): File "CNN_Learning_Side_Channel_Attack.

    1熱度

    3回答

    我在分類問題上遇到了麻煩。 我有兩個標籤在訓練數據中的向量數量接近400k,我想訓練將數據分爲兩類的MLP。 但是,數據集非常不平衡。 95%的人有標籤1,其他人有0標籤。準確性隨着培訓的進展而增長,並在達到95%後停止。我想這是因爲網絡預測所有矢量的標籤爲1。 到目前爲止,我嘗試用0.5概率退出圖層。但是,結果是一樣的。有什麼方法可以提高準確度嗎?

    1熱度

    1回答

    我分類30種衣服使用R-CNN從tensorflow對象檢測庫的圖像:https://github.com/tensorflow/models/tree/master/research/object_detection 顏色是否不管什麼時候,我們收集的培訓和測試圖像? 如果我只穿紫色和藍色襯衫,我猜它不會識別紅色襯衫? 我應該灰度化所有圖像來檢測衣服的類型? :)

    0熱度

    1回答

    我正在基於DCGAN的GAN上工作。 我聽說Generator和Discriminator需要凍結它的變量,而另一個正在訓練。 所以我以前就這樣做過。 G = generator(batch_size, z, in_h) D, D_logits = discriminator(X) D_, D_logits_ = discriminator(G, reuse=True) # Vari

    0熱度

    2回答

    我正在使用MLPRegressor,它需要5個連續的特徵和1個特徵,這些特徵從一組40個值[0,1,2,.., 39]中提取值。 有人告訴我,使用sklearn.preprocessing.MinMaxScaler(feature_range = (0,1))正常化功能可以幫助提高MLP和LSTM的性能。 因此,我在包含上述功能的我的Xtrain矩陣上使用它。 但是,它看起來很奇怪,我應該儘量減少