1. 程式人生 > >六天搞懂“深度學習”之三:多層神經網路

六天搞懂“深度學習”之三:多層神經網路

為了克服單層神經網路只能解決線性可分問題的侷限性,神經網路進化為多層結構。然而,花費了將近30年的時間,才將隱藏層新增到單層神經網路中。很難理解為什麼花費了這麼長時間,其中的主要問題是學習規則。

單層神經網路中的增量規則對於多層神經網路的訓練是無效的,這是因為訓練中在隱藏層產生的誤差並沒有定義。反向傳播演算法是多層神經網路的代表性學習規則。

1986年,反向傳播演算法的引入最終解決了多層神經網路的訓練問題。反向傳播演算法的意義在於,它提供了一種確定隱藏節點誤差的系統方法,一旦能夠確定隱藏層輸出誤差,則可以應用增量規則來調整權值。

考慮一個神經網路,它由輸入和輸出的兩個節點和一個隱藏層組成,隱藏層也具有兩個節點。為了研究方便,這裡省略了偏置引數,即偏置設為0。示例神經網路如下圖所示,其中上標表示層指示符。
在這裡插入圖片描述

在這裡插入圖片描述

在這裡插入圖片描述

在這裡插入圖片描述

在這裡插入圖片描述

在這裡插入圖片描述

更多精彩文章請關注微訊號:在這裡插入圖片描述