cross-entropy

    0熱度

    1回答

    這裏是我的代碼: import tensorflow as tf with tf.Session() as sess: y = tf.constant([0,0,1]) x = tf.constant([0,1,0]) r = tf.nn.sparse_softmax_cross_entropy_with_logits(labels=y, logits

    2熱度

    1回答

    我在二進制分類問題上訓練xgboost分類器。它產生70%準確的預測。然而,logloss在9.13處非常大。我懷疑這可能是因爲一些預測遠非目標,但我不明白爲什麼會發生 - 其他人用xgboost報告相同數據的logloss(0.55 - 0.6)更好。 from readCsv import x_train, y_train from sklearn.model_selection impor

    1熱度

    1回答

    過去幾天我一直在調試NN,但是我找不到問題。 我創建了用於識別MNIST數據集圖像的多層感知器的總原始實現。 網絡似乎學習,因爲列車循環後測試數據的準確性高於94%的準確性。我有損失功能的問題 - 一段時間後開始增加,當測試/ val精度達到〜76%時。 有人可以檢查我的前進/後退數學,並告訴我,如果我的損失功能是否正確實施,或建議什麼可能是錯誤的? NN結構: 輸入層:758個節點,(每像素1個

    1熱度

    1回答

    我有一個使用tensorflow函數的函數。我需要Theano的這個功能,因爲在平臺上我想使用這個代碼只有Theano安裝而不是tensorflow。我主要和Keras一起工作,所以tensorflow對我來說很神祕。 功能如下: class WeightedBinaryCrossEntropy(object): def __init__(self, pos_ratio):

    1熱度

    1回答

    由於隱藏tf.nn.softmax_cross_entropy_with_logits的gen_nn_ops的源代碼,任何人都可能解釋我tensorflow如何計算Softmax後的交叉熵。我的意思是,在softmax之後,它可能會輸出0,因爲精度會導致交叉熵產生NaN問題。當softmax限制它的輸出時,tensorflow是否使用clip方法?

    2熱度

    1回答

    我知道二元交叉熵與兩類中的分類交叉熵相同。 此外,我很清楚softmax是什麼。 因此,我看到明確的交叉熵懲罰只是將一個部件(概率)應爲1。 但爲什麼,不能或不應我使用二進制交叉熵上一熱載體? Normal Case for 1-Label-Multiclass-Mutual-exclusivity-classification: ################ pred = [0.1

    0熱度

    1回答

    這是什麼意思,如果這是tf.losses.softmax_cross_entropy_loss的返回值? <tf.Tensor 'softmax_cross_entropy_loss/value:0' shape=() dtype=float32> 這是否是事實陳述value:0平均和shape=()意味着什麼也沒計算的?

    1熱度

    1回答

    我使用完全卷積神經網絡(鏈接到紙)做圖像分割:https://people.eecs.berkeley.edu/~jonlong/long_shelhamer_fcn.pdf 這可以被認爲是像素分類(用於最終的每個像素獲得一個標籤) 我正在使用tf.nn.sparse_softmax_cross_entropy_with_logits丟失函數。 loss = tf.reduce_mean((tf.

    1熱度

    1回答

    我試圖用TensorFlow實現多標籤分類(即每個輸出模式可以有許多活動單位)。該問題具有不平衡的類(即,比標籤分佈中的零多得多,這使得標籤模式非常稀疏)。 解決此問題的最佳方法應該是使用tf.nn.weighted_cross_entropy_with_logits函數。但是,我得到這個運行時錯誤: ValueError: Tensor conversion requested dtype ui

    1熱度

    1回答

    我對神經網絡很陌生,想知道爲什麼所有RNN的例子,特別是char-rnns都使用交叉熵損失函數作爲它們的損失函數。我已經使用了Google,但似乎無法在這方面討論任何功能。我被要求激勵它的使用,並且看它的優點和缺點,所以任何我可以通讀的論文或來源都會受到重視。