deep-learning

    4熱度

    2回答

    當我使用預先訓練的單詞向量做LSTM分類時,我想知道如何處理tensorflow中大於2gb的嵌入查找表。 要做到這一點,我試圖讓嵌入查找表像下面的代碼, data = tf.nn.embedding_lookup(vector_array, input_data) 得到這個值誤差。上的代碼 ValueError: Cannot create a tensor proto whose conten

    2熱度

    1回答

    在多個出版物中描述這個問題涉及在CNN使用位置矢量的關係分類,如以下通過Zeng等人:http://www.aclweb.org/anthology/C14-1220 我想在張量流中實現這樣一個模型。我的問題如下: 使用隨機初始化向量表示位置信息有什麼好處嗎?舉例來說,爲什麼不用一個熱門的矢量編碼來表示位置?不建議將單熱矢量與密集的單詞矢量結合起來嗎? 根據單詞向量的維度,位置向量應該具有最小維度

    0熱度

    2回答

    我有一個神經網絡問題 假設我有60個培訓,20個驗證和20個測試集。對於每個時期,我通過60個訓練集樣本運行,同時調整每個樣本的權重,並計算每個驗證樣本的誤差。 所以我所知,發生在訓練集(未驗證集) 重量更新,但我聽說分離驗證從訓練集設置是爲了避免過度擬合。 然後我的問題是 如果驗證並不能使神經網絡中的任何權重更新,如何驗證設置幫助神經網絡避免過度擬合?

    1熱度

    1回答

    我一直在努力,因爲我實現卷積神經網絡來獲得卷積運算更深入的瞭解。但是我在試圖計算反向通過或反捲積時卡住了。 可以說輸入是尺寸爲3x7x7的三維RGB圖像過濾器的尺寸爲3x3x3。在將步長設置爲2的卷積中,我們將得到尺寸爲3x3的輸出。 現在,這是我的問題。我已經讀過,反捲積是輸出與翻轉內核的卷積。但是在翻轉內核時,它仍然是尺寸爲3x3x3,輸出尺寸爲3x3。輸入是尺寸3x7x7。那麼,解卷積是如何

    2熱度

    2回答

    我正在開發一個人必須模仿預定姿勢的項目。照片是由模仿此預定義姿勢的人制作的。 然後,從這個圖像中提取人的人體姿勢,並與預定義的姿勢進行比較。最後一個得分機制決定兩個姿勢的匹配程度,或者它們完全匹配。 我想爲智能手機開發,因此理想情況下,所有內容都嵌入智能手機本身。這意味着,該實現能夠在CPU或智能手機GPU上運行(例如Moto G5 Plus,板載Adreno 506 GPU - 支持OpenGL

    1熱度

    2回答

    我的Kaggle's Credit Card Fraud(分類)數據集試圖Tensorflow的DNNLinearCombinedClassifier(1.3版): m = tf.estimator.DNNLinearCombinedClassifier(model_dir='/.../model', dnn_feature_columns=deep_columns,

    0熱度

    1回答

    我想知道怎樣才能將合併爲兩層不同的空間空間Tensorflow。 例如:: batch_size = 3 input1 = tf.ones([batch_size, 32, 32, 3], tf.float32) input2 = tf.ones([batch_size, 16, 16, 3], tf.float32) filt1 = tf.constant(0.1, shape = [

    0熱度

    1回答

    我正在訓練使用https://arxiv.org/abs/1310.4546中描述的着名模型的跳躍字嵌入。我想在PyTorch中訓練它,但是我收到錯誤,我無法弄清楚它們來自哪裏。下面我提供了我的模型類,訓練循環和配料方法。有沒有人對發生了什麼有所瞭解?我在行發生錯誤。它有一個<class 'torch.LongTensor'>問題,這很奇怪,因爲CrossEntropyLoss需要很長的張量。輸出

    1熱度

    1回答

    我想在我的機器的GPU運行Cifar-10 CNN代碼,但我面臨着以下問題: 尺寸(1)必須在區間[0,2),其中, 2是輸入中的維數。對於'metrics/acc/ArgMax'(op:'ArgMax'),輸入形狀爲:[?,?],[]。 這裏是我的代碼: import os os.environ["THEANO_FLAGS"] = "mode=FAST_RUN,device=cuda0,flo

    0熱度

    2回答

    我讀過一些關於卷積神經網絡的論文,發現幾乎所有的論文都將這些完全連接的層稱爲正常的CNN「頂層」。 但是,正如大多數論文所顯示的那樣,典型的CNN具有自頂向下的結構,並且完全連接的層(通常跟着一個softmax分類器)被放置在網絡的底部。那麼,爲什麼我們稱他們爲「頂層」呢?這是一種慣例,還是我不知道的其他考慮因素?