1. 程式人生 > >深度學習演算法原理——神經網路的基本原理

深度學習演算法原理——神經網路的基本原理

一、神經網路

1、神經元概述

神經網路是由一個個的被稱為“神經元”的基本單元構成,單個神經元的結構如下圖所示:


這裡寫圖片描述

對於上述的神經元,其輸入為x1x2x3以及截距+1,其輸出為:

hW,b(x)=f(WTx)=f(i=13Wixi+b)

其中,W表示的是向量,代表的是權重,函式f稱為啟用函式,通常啟用函式可以選擇為Sigmoid函式,或者tanh雙曲正切函式,其中,Sigmoid函式的形式為:

f(z)=11+ez

雙曲正切函式的形式為:

f(z)=tanh(z)=ezezez+ez

以下分別是Sigmoid函式和tanh函式的影象,左邊為Sigmoid函式的影象,右邊為tanh函式的影象:


這裡寫圖片描述

Sigmoid函式的區間為[0,1],而tanh函式的區間為[1,1]

若是使用sigmoid作為神經元的啟用函式,則當神經元的輸出為1時表示該神經元被啟用,否則稱為未被啟用。同樣,對於啟用函式是tanh時,神經元的輸出為1時表示該神經元被啟用,否則稱為未被啟用。

2、神經網路

2.1、神經網路的結構

神經網路是由很多的神經元聯結而成的,一個簡單的神經網路的結構如下圖所示:

其中一個神經元的輸出是另一個神經元的輸入,+1項表示的是偏置項。上圖是含有一個隱含層的神經網路模型,L1層稱為輸入層,L2層稱為隱含層,L3層稱為輸出層。

2.2、神經網路中的引數說明

在神經網路中,主要有如下的一些引數標識:

  • 網路的層數n1。在上述的神經網路中nl=3,將第l層記為Ll,則上述的神經網路,輸入層為L1,輸出層為L3
  • 網路權重和偏置(W,b)=(W(1),b(1),W(2),b(2)),其中Wij(l)表示的是第l層的第j個神經元和第l+1
    層的第i個神經元之間的連線引數,bi(l)標識的是第