0

我在圖像分類任務上訓練了一些CNN。 在一個簡單的版本,這個工作得很好,但是當我做了圖像更加困難我現在遇到這樣的phenomen(我讓他培養過夜):Crossentroy丟失和Accurary之間的關係

雖然培訓,培訓crossentropy損失下降。另外,在我的測試數據集上,交叉熵損失下降。我進一步測量它的準確性,其行爲有所不同。一開始它上升了,只是再次下降,然後在0.1到0.3之間搖擺不定。 我期待着跨信號丟失和準確性有些相關 - 因爲它們都是在相同的測試數據集上測量的。

有人可以向我解釋這個嗎?或者我的代碼有錯誤?

非常感謝

回答

0

交叉熵並不總是與錯誤度量直接相關。通常它與錯誤率相關的程度非常好。另一個典型的選擇是最小化貝葉斯風險。貝葉斯風險就是對您的模型的錯誤(相反的準確性)的期望。這是一個持續的損失,應該與錯誤率更好地相關。另外,衡量訓練錯誤通常是一個很好的指標。