1. 程式人生 > >【火爐煉AI】深度學習004-Elman迴圈神經網路

【火爐煉AI】深度學習004-Elman迴圈神經網路

【火爐煉AI】深度學習004-Elman迴圈神經網路

(本文所使用的Python庫和版本號: Python 3.6, Numpy 1.14, scikit-learn 0.19, matplotlib 2.2 )

Elman神經網路是最早的迴圈神經網路,由Elman於1990年提出,又稱為SRN(Simple Recurrent Network, 簡單迴圈網路)。SRN考慮了時序資訊,當前時刻的輸出不僅和當前時刻的輸入有關,還和前面所有時刻的輸入有關。SRN是RNN結構中最簡單的一種,相對於傳統的兩層全連線前饋網路,它僅僅在全連線層添加了時序反饋連線。

簡單點來理解,以前的深度神經網路的計算可以簡單理解為:yt=f(Xt),而SRN卻把上一個時刻的結果也當做輸入放入模型中,相當於yt=f(Xt,yt-1),由於這種遞迴性,每一個yt結果不僅僅和自身的特徵向量Xt有關,還和前一個時刻的輸出結果yt-1有關,如此遞迴,便認為yt和以前的所有的Xt,Xt-1,Xt-2...都有關,那麼yt就相當於“記住了”前面N個時刻的所有輸入變數X.

那麼SRN是怎麼做到這一點的了?SRN一般分為四層:輸入層,隱含層,承接層,輸出層,和前面講到的簡單神經網路不同的是,承接層就起到一個臨時變數Var的作用,在t-1時刻得到的結果yt-1後,把yt-1輸出的同時也儲存一份給Var,然後再計算t時刻的結果是,把Var也當做一個變數輸入,所以Var相當於一個延時運算元,達到記憶的目的,使得整個網路結構具有適應時間序列的應變能力。如下圖所示:

圖中的迴圈層其實就是承接層,名稱不同而已,這個網路結構不太容易看出時序性,故而展開後為:

圖片來源於Recurrent Neural Network(迴圈神經網路).

關於更多更復雜的迴圈神經網路結構,可以參考博文

迴圈神經網路(RNN, Recurrent Neural Networks)介紹

那麼怎麼建立並訓練SRN模型了?


1. 構建並訓練Elman迴圈神經網路

1.1 準備資料集

此次我們自動生成一系列資料,該系列資料包含四段資料,如下為資料生成函式。

# 準備資料集
# 用np生成一些序列資料,這個序列資料有四段
def waveform_dataset(points_num):
    '''建立波形資料集,這個資料集含有四段,每一段的資料點數為points_num'''
    stage1=1*np.cos(np.arange(points_num))
    stage2=2*np.cos(np.arange(points_num))
    stage3=3*np.cos(np.arange(points_num))
    stage4=4*np.cos(np.arange(points_num))
    
    dataset_X=np.array([stage1,stage2,stage3,stage4])# 4行points_num列
    dataset_X=dataset_X.reshape(points_num*4,1) # 轉變為:4*points_num行,一列,即為整個序列
    
    amp1 = np.ones(points_num) # 每一段資料的幅度不同 分別是1,4,2,0.5
    amp2 = 4 + np.zeros(points_num) 
    amp3 = 2 * np.ones(points_num) 
    amp4 = 0.5 + np.zeros(points_num) 
    dataset_y=np.array([amp1,amp2,amp3,amp4]).reshape(points_num*4,1)
    return dataset_X,dataset_y

可以看看資料集的分佈情況:

1.2 構建並訓練模型

直接上程式碼,此處用neurolab模組中的現有函式newelm()來構建一個SRN模型,包含兩層神經網路。

# 構建並訓練模型
import neurolab as nl
net = nl.net.newelm([[-2, 2]], [10, 1], [nl.trans.TanSig(), nl.trans.PureLin()])
# 建立兩層的神經網路
net.layers[0].initf = nl.init.InitRand([-0.1, 0.1], 'wb')
net.layers[1].initf= nl.init.InitRand([-0.1, 0.1], 'wb')
net.init()
# 網路的初始化
error = net.train(dataset_X, dataset_y, epochs=3000, show=300, goal=0.01)

-------------------------------------輸---------出--------------------------------

Epoch: 300; Error: 0.08632353521527447;
Epoch: 600; Error: 0.07758197978278435;
Epoch: 900; Error: 0.047083147244329486;
Epoch: 1200; Error: 0.03948011155907889;
Epoch: 1500; Error: 0.03808612642771739;
Epoch: 1800; Error: 0.03600983543384789;
Epoch: 2100; Error: 0.04108011778013388;
Epoch: 2400; Error: 0.0388262030539809;
Epoch: 2700; Error: 0.033576743782171244;
Epoch: 3000; Error: 0.03329548827926802;
The maximum number of train epochs is reached

--------------------------------------------完-------------------------------------

1.3 用訓練好的模型預測新樣本

此處假設訓練集所用的dataset_X為新樣本,那麼看看得到的結果和預測值之間的差異。

# 用訓練好的模型預測新樣本
predict_y=net.sim(dataset_X)
plt.plot(dataset_y,label='dataset')
plt.plot(predict_y,label='predicted')
plt.legend()
plt.title('Comparison of Truth and Predicted')

當然,我們也可以用函式waveform_dataset()來產生一些新資料,然後用訓練好的模型預測一下試試。

# 生成新的資料集
newset_X,newset_y=waveform_dataset(100)
predict_y=net.sim(newset_X)
plt.plot(newset_y,label='dataset')
plt.plot(predict_y,label='predicted')
plt.legend()
plt.title('Comparison of Truth and Predicted')

可以發現,對於新產生的序列資料,該模型也能夠大體預測出來。

########################小**********結###############################

1,neurolab中已經集成了一些簡單的神經網路方面的函式,比如最簡單的迴圈神經網路模型--Elman迴圈神經網路,對於複雜的或者需要自己定義的迴圈神經網路,需要用其他更復雜的深度學習框架。

1,Elman迴圈神經網路模型是一種最簡單的迴圈神經網路結構,只能解決一些相對簡單的序列資料問題。

#################################################################


注:本部分程式碼已經全部上傳到(我的github)上,歡迎下載。

參考資料:

1, Python機器學習經典例項,Prateek Joshi著,陶俊傑,陳小莉譯