1. 程式人生 > >神經網路學習(二)——自適應線性神經網路

神經網路學習(二)——自適應線性神經網路

自適應線性神經網路(Adaline)和感知器的區別:

1.自適應線性神經網路的啟用函式不再採用步調函式,而是直接將樣本運算的結果(點乘)與實際結果相比較。(白話版:自適應線性神經網路的啟用函式f(x)=x,是一個線性函式)

2.自適應線性神經網路提出了代價函式的概念,並對其做了最小優化。基於Adaline規則的權重更新是通過一個連續的線性啟用函式(本例子中採用f(x)=x)來完成,而感知器採用的單位階躍函式

相關概念:

距離:和方差公式(歐幾里得距離):J(w)=\frac{1}{2}\sum _{i}(y^{(i)}-\phi (z^{(i)}))^{2}  ,\phi =z= {w_{1} x_{1} + ... +w_{m}x_{m} },其中y表示輸入的第i組資料對應的結果。不斷訓練,當這個距離J最小的時候,訓練結束。(注意:這是所有輸出誤差的和,因為本次距離只採用一個神經元,所以只有一個輸出,沒有用到求和公式)

漸進下降法:和方差的函式實際上是一條曲線,對J(w)求導數,當大於0的時候,減小W,當小於0的時,增加W,這個方法叫漸進下降法。

 

步驟:

(有監督學習的核心:定義一個待優化的目標函式,即做最小化處理的代價函式。)

1.Adaline將和方差公式作為代價函式

2.通過梯度下降演算法,沿梯度做權重更新。權重增量\Delta \omega定義為負梯度和學習速率\eta的乘積

(求偏導的過程,可以理解為權重w對誤差結果的影響程度,也就是斜率,斜率越大,影響越大。更新過程就是權重W減去學習速率*總誤差關於權重W的斜率。同理,偏置b的更新實際上就是偏置b減去學習速率*總誤差關於偏置b的斜率)

(注意:之所以第二個求和符號會沒有,是因為對樣本向量中的某一個樣本值求和,就是它本身)

 

ç¥ç»ååæ°æ´æ°

 

自適應性神經元和感知器的最大區別在於啟用函式的不同。