-2

我想用AlexNet體系結構來解決最初用於分類任務的迴歸問題。 此外,對於學習步驟,我想包括一個參數批量大小。用卷積神經網絡進行迴歸的體系結構

所以我有幾個問題:

  • 我需要什麼,在網絡架構改變,實現了迴歸?正是在最後一層,損失函數或其他事情。
  • 如果我使用5的批量大小,最後一層的輸出大小是多少?

謝謝!

回答

-1

這將是有益的分享:

  • Q框架:哪些深層學習框架,您正在使用和/或分享具體的一條,你需要幫助的代碼修改

    一:例如。 TensorFlow,PyTorch,Keras等。

  • Q損失類型,輸出大小:您試圖通過迴歸實現什麼任務?這會影響您想要使用的損失類型,輸出尺寸,微調VGGnet等。

    答:例如:灰度圖像的自動着色(這裏是example)是迴歸任務的一個例子,您將嘗試從單色圖像中迴歸RGB通道像素值。您可能會有L2損失(或其他損失以提高性能)。輸出大小應該與批量大小無關,它將由最後一層的輸出尺寸決定(即prediction op)。批量大小是一個訓練參數,您可以更改而無需更改模型體系結構或輸出尺寸。

+0

感謝您的回答! - 我正在研究TensorFlow 1.3 - 我想使用迴歸進行年齡估計,所以在輸出中我只希望年齡。由於我有一個小數據集,因此我對網絡進行了微調。 我的工作基礎是[https://github.com/kratzert/finetune_alexnet_with_tensorflow]。 – NTJoe

+0

在這種情況下,最後一個完全連通/緻密層可以被一個輸出維數爲1的層所取代,損失可能是預測輸出和實際年齡之間的L2損失。 然而,在Imagenet上訓練的預訓練AlexNet對於視覺任務很有用,可以通過微調或傳輸學習獲益。我建議重新評估使用Imagenet預訓練網絡進行迴歸任務的需求。 僅供參考 - 該鏈接似乎被打破 –

+0

對不起,良好的鏈接https://github.com/kratzert/finetune_alexnet_with_tensorflow。好 !所以如果我理解的很好,層fc8(你可以打開叫做「alexnet.py」的文件)可以替換爲「self.fc8 = fc(dropout7,4096,num_out = 1,relu = True,name ='fc8' )「?你認爲使用VGG更好嗎? – NTJoe