2015-07-20 78 views
0

我觀看了一個演講,並推導了反向傳播的方程,但它是一個簡單的例子,有三個神經元:一個輸入神經元,一個隱藏神經元和一個輸出神經元。這很容易推導出來,但我怎樣才能對更多的神經元做同樣的事情?我並不是在討論增加更多圖層,而只是在將更多的神經元添加到已有的三層圖層中:輸入圖層,隱藏圖層和輸出圖層。簡單的人工神經網絡的反向傳播

我的第一個猜測是使用我爲3個神經元和3層網絡導出的方程,並遍歷所有可能的路徑到更大網絡中的每個輸出神經元,更新每個權重。但是,這會導致某些權重不止一次更新。我能做到這一點還是有更好的方法?

+0

你能澄清你想要做什麼嗎?也許有一些照片? '這會導致某些權重不止一次被更新' 這不是好跡象 – janisz

+0

如果您對後向傳播更新規則感興趣,爲什麼不直接查看它?如果這是爲了娛樂/作爲練習而做的,請包括實際的公式,以便我們知道您正在嘗試什麼。 – runDOSrun

+0

反向傳播方程通過使用矩陣而不是單個標量值來推廣到任何數量的神經元和圖層,就像您可能在每個圖層的1個神經元示例中使用的一樣。 – Alejandro

回答