1. 程式人生 > >Python實現最小均方演算法(lms)

Python實現最小均方演算法(lms)

     lms演算法跟Rosenblatt感知器相比,主要區別就是權值修正方法不一樣。lms採用的是批量修正演算法,Rosenblatt感知器使用的

是單樣本修正演算法。兩種演算法都是單層感知器,也只適用於線性可分的情況。

      詳細程式碼及說明如下:

複製程式碼
'''
   演算法:最小均方演算法(lms)
   均方誤差:樣本預測輸出值與實際輸出值之差平方的期望值,記為MES
   設:observed 為樣本真值,predicted為樣本預測值,則計算公式:
   (轉換為容易書寫的方式,非數學標準寫法,因為數學符號在這裡不好寫)
   MES=[(observed[0]-pridicted[0])*(observed[0]-pridicted[0])+....
         (observed[n]-pridicted[n])*(observed[n]-pridicted[n])]/n
''' ''' 變數約定:大寫表示矩陣或陣列,小寫表示數字 X:表示陣列或者矩陣 x:表示對應陣列或矩陣的某個值 ''' ''' 關於學習效率(也叫步長:控制著第n次迭代中作用於權值向量的調節)。(下面的引數a): 學習效率過大:收斂速度提高,穩定性降低,即出結果快,但是結果準確性較差 學習效率過小:穩定性提高,收斂速度降低,即出結果慢,準確性高,耗費資源 對於學習效率的確定,有專門的演算法,這裡不做研究。僅僅按照大多數情況下的選擇:折中值 ''' import numpy as np a=0.1 ##學習率 0<a<1 X=np.array([[1,1],[1,0],[0,1],[0,0]]) #
#輸入矩陣 D=np.array([1,1,1,0]) ##期望輸出結果矩陣 W=np.array([0,0]) ##權重向量 expect_e=0.005 ##期望誤差 maxtrycount=20 ##最大嘗試次數 ##硬限幅函式(即標準,這個比較簡單:輸入v大於0,返回1.小於等於0返回-1) ''' 最後的權重為W([0.1,0.1]),則:0.1x+0.1y=0 ==>y=-x 即:分類線方程為:y=-x ''' def sgn(v): if v>0: return 1 else: return 0 ##跟上篇感知器單樣本訓練的-1比調整成了0,為了測試需要。-1訓練不出結果
##讀取實際輸出 ''' 這裡是兩個向量相乘,對應的數學公式: a(m,n)*b(p,q)=m*p+n*q 在下面的函式中,當迴圈中xn=1時(此時W=([0.1,0.1])): np.dot(W.T,x)=(1,1)*(0.1,0.1)=1*0.1+1*0.1=0.2>0 ==>sgn 返回1 ''' def get_v(W,x): return sgn(np.dot(W.T,x))##dot表示兩個矩陣相乘 ##讀取誤差值 def get_e(W,x,d): return d-get_v(W,x) ##權重計算函式(批量修正) ''' 對應數學公式: w(n+1)=w(n)+a*x(n)*e 對應下列變數的解釋: w(n+1) <= neww 的返回值 w(n) <=oldw(舊的權重向量) a <= a(學習率,範圍:0<a<1) x(n) <= x(輸入值) e <= 誤差值或者誤差訊號 ''' def neww(oldW,d,x,a): e=get_e(oldW,x,d) return (oldW+a*x*e,e) ##修正權值 ''' 此迴圈的原理: 權值修正原理(批量修正)==>神經網路每次讀入一個樣本,進行修正, 達到預期誤差值或者最大嘗試次數結束,修正過程結束 ''' cnt=0 while True: err=0 i=0 for xn in X: W,e=neww(W,D[i],xn,a) i+=1 err+=pow(e,2) ##lms演算法的核心步驟,即:MES err/=float(i) cnt+=1 print(u"第 %d 次調整後的權值:"%cnt) print(W) print(u"誤差:%f"%err) if err<expect_e or cnt>=maxtrycount: break print("最後的權值:",W.T) ##輸出結果 print("開始驗證結果...") for xn in X: print("D%s and W%s =>%d"%(xn,W.T,get_v(W,xn))) ##測試準確性: ''' 由上面的說明可知:分類線方程為y=-x,從座標軸上可以看出: (2,3)屬於+1分類,(-2,-1)屬於0分類 ''' print("開始測試...") test=np.array([2,3]) print("D%s and W%s =>%d"%(test,W.T,get_v(W,test))) test=np.array([-2,-1]) print("D%s and W%s =>%d"%(test,W.T,get_v(W,test)))
複製程式碼

    輸出結果:

複製程式碼
第 1 次調整後的權值:
[ 0.1  0.1]
誤差:0.250000
第 2 次調整後的權值:
[ 0.1  0.1]
誤差:0.000000
最後的權值: [ 0.1  0.1]
開始驗證結果...
D[1 1] and W[ 0.1  0.1] =>1
D[1 0] and W[ 0.1  0.1] =>1
D[0 1] and W[ 0.1  0.1] =>1
D[0 0] and W[ 0.1  0.1] =>0
開始測試...
D[2 3] and W[ 0.1  0.1] =>1
D[-2 -1] and W[ 0.1  0.1] =>0
複製程式碼

     從結果看出,經過2次訓練,就得出了最優結果。

    補充說明:經過多次調整樣本或者權重,在20次迴圈中有時候出結果,有時候找不到最優解。所以在實驗過程中,沒有達到

預期結果,除了迴圈次數不夠之外,最大的可能就是樣本或者權值設定的問題。