2016-05-12 124 views
1

我一直關注Andrew NG的神經網絡視頻。在這些視頻中,他並沒有將偏見與每一個神經元聯繫在一起。相反,他在激活計算完成後在每一層的頭部增加一個偏差單位,並利用這個偏差和計算結果來計算下一層激活(前向傳播)。然而,在其他一些關於機器學習和像https://www.youtube.com/watch?v=aVId8KMsdUU等視頻的博客中,每個神經元都存在一種偏見。這個區別是什麼?爲什麼?它有什麼影響?每個神經元的神經網絡偏差

回答

1

兩種方法都代表相同的偏差概念。對於每個單元(不包括輸入節點)你計算(在前饋網絡的情況下)載體加標量偏壓值從前面的層的權重和激活的點積的激活函數的值:

(w * a) + b 

在Andrew Ng這個值是使用矢量化技巧計算出來的,其中您將激活與指定的偏差常數(通常爲1)連接起來,並且該作業(因爲此常數對於不同節點具有其自己的權重 - 所以這完全相同爲每個節點設置另一個偏差值)。

+0

但是在Andrew NG的課程中,如果我們添加一個偏差,那麼下一層中的所有神經元都不會有相同的偏差嗎?如果我們初始化每個神經元的偏差,情況就不會這樣,因爲我們可以初始化不同神經元的不同偏差。 – RaviTej310

+1

偏差值是相同的 - 但每個節點對它有不同的權重。所以如果例如一些節點具有偏置權重w_0並且偏置常數爲a_0,則相應的偏置值等於w_0 * a_0。您只需通過學習正確的權重w_0即可調整每個偏差值。 –