1. 程式人生 > >系統學習機器學習之神經網路(十二) --人工神經網路總結

系統學習機器學習之神經網路(十二) --人工神經網路總結

本來這篇還缺個RBM,但RBM在DBN中使用,暫時放在深度學習那裡。這裡看到一篇非常好的總結,儲存下來。

轉自:http://blog.csdn.net/fengbingchun/article/details/50274471

本文主要對人工神經網路基礎進行了描述,主要包括人工神經網路的概念、發展、特點、結構、模型。

本文是個科普文,來自網路資料的整理。

一、             人工神經網路的概念

人工神經網路(Artificial Neural Network,ANN)簡稱神經網路(NN),是基於生物學中神經網路的基本原理,在理解和抽象了人腦結構和外界刺激響應機制後,以網路拓撲知識為理論基礎,模擬人腦的神經系統對複雜資訊的處理機制的一種數學模型。該模型以並行分佈的處理能力、高容錯性、智慧化和自學習等能力為特徵,將資訊的加工和儲存結合在一起,以其獨特的知識表示方式和智慧化的自適應學習能力,引起各學科領域的關注。它實際上是一個有大量簡單元件相互連線而成的複雜網路,具有高度的非線性,能夠進行復雜的邏輯操作和非線性關係實現的系統。

神經網路是一種運算模型,由大量的節點(或稱神經元)之間相互聯接構成。每個節點代表一種特定的輸出函式,稱為啟用函式(activation function)。每兩個節點間的連線都代表一個對於通過該連線訊號的加權值,稱之為權重(weight),神經網路就是通過這種方式來模擬人類的記憶。網路的輸出則取決於網路的結構、網路的連線方式、權重和啟用函式。而網路自身通常都是對自然界某種演算法或者函式的逼近,也可能是對一種邏輯策略的表達。神經網路的構築理念是受到生物的神經網路運作啟發而產生的。人工神經網路則是把對生物神經網路的認識與數學統計模型相結合,藉助數學統計工具來實現。另一方面在人工智慧學的人工感知領域,我們通過數學統計學的方法,使神經網路能夠具備類似於人的決定能力和簡單的判斷能力,這種方法是對傳統邏輯學演算的進一步延伸。

         人工神經網路中,神經元處理單元可表示不同的物件,例如特徵、字母、概念,或者一些有意義的抽象模式。網路中處理單元的型別分為三類:輸入單元、輸出單元和隱單元。輸入單元接受外部世界的訊號與資料;輸出單元實現系統處理結果的輸出;隱單元是處在輸入和輸出單元之間,不能由系統外部觀察的單元。神經元間的連線權值反映了單元間的連線強度,資訊的表示和處理體現在網路處理單元的連線關係中。人工神經網路是一種非程式化、適應性、大腦風格的資訊處理,其本質是通過網路的變換和動力學行為得到一種並行分散式的資訊處理功能,並在不同程度和層次上模仿人腦神經系統的資訊處理功能。

         神經網路,是一種應用類似於大腦神經突觸連線結構進行資訊處理的數學模型,它是在人類對自身大腦組織結合和思維機制的認識理解基礎之上模擬出來的,它是根植於神經科學、數學、思維科學、人工智慧、統計學、物理學、電腦科學以及工程科學的一門技術。

二、             人工神經網路的發展

神經網路的發展有悠久的歷史。其發展過程大致可以概括為如下4個階段。

1.      第一階段----啟蒙時期

(1)、M-P神經網路模型:20世紀40年代,人們就開始了對神經網路的研究。1943 年,美國心理學家麥克洛奇(Mcculloch)和數學家皮茲(Pitts)提出了M-P模型,此模型比較簡單,但是意義重大。在模型中,通過把神經元看作個功能邏輯器件來實現演算法,從此開創了神經網路模型的理論研究。

(2)、Hebb規則:1949 年,心理學家赫布(Hebb)出版了《The Organization of Behavior》(行為組織學),他在書中提出了突觸連線強度可變的假設。這個假設認為學習過程最終發生在神經元之間的突觸部位,突觸的連線強度隨之突觸前後神經元的活動而變化。這一假設發展成為後來神經網路中非常著名的Hebb規則。這一法則告訴人們,神經元之間突觸的聯絡強度是可變的,這種可變性是學習和記憶的基礎。Hebb法則為構造有學習功能的神經網路模型奠定了基礎。

(3)、感知器模型:1957 年,羅森勃拉特(Rosenblatt)以M-P 模型為基礎,提出了感知器(Perceptron)模型。感知器模型具有現代神經網路的基本原則,並且它的結構非常符合神經生理學。這是一個具有連續可調權值向量的MP神經網路模型,經過訓練可以達到對一定的輸入向量模式進行分類和識別的目的,它雖然比較簡單,卻是第一個真正意義上的神經網路。Rosenblatt 證明了兩層感知器能夠對輸入進行分類,他還提出了帶隱層處理元件的三層感知器這一重要的研究方向。Rosenblatt 的神經網路模型包含了一些現代神經計算機的基本原理,從而形成神經網路方法和技術的重大突破。

(4)、ADALINE網路模型: 1959年,美國著名工程師威德羅(B.Widrow)和霍夫(M.Hoff)等人提出了自適應線性元件(Adaptive linear element,簡稱Adaline)和Widrow-Hoff學習規則(又稱最小均方差演算法或稱δ規則)的神經網路訓練方法,並將其應用於實際工程,成為第一個用於解決實際問題的人工神經網路,促進了神經網路的研究應用和發展。ADALINE網路模型是一種連續取值的自適應線性神經元網路模型,可以用於自適應系統。

2.      第二階段----低潮時期

人工智慧的創始人之一Minsky和Papert對以感知器為代表的網路系統的功能及侷限性從數學上做了深入研究,於1969年發表了轟動一時《Perceptrons》一書,指出簡單的線性感知器的功能是有限的,它無法解決線性不可分的兩類樣本的分類問題,如簡單的線性感知器不可能實現“異或”的邏輯關係等。這一論斷給當時人工神經元網路的研究帶來沉重的打擊。開始了神經網路發展史上長達10年的低潮期。

(1)、自組織神經網路SOM模型:1972年,芬蘭的KohonenT.教授,提出了自組織神經網路SOM(Self-Organizing feature map)。後來的神經網路主要是根據KohonenT.的工作來實現的。SOM網路是一類無導師學習網路,主要用於模式識別﹑語音識別及分類問題。它採用一種“勝者為王”的競爭學習演算法,與先前提出的感知器有很大的不同,同時它的學習訓練方式是無指導訓練,是一種自組織網路。這種學習訓練方式往往是在不知道有哪些分類型別存在時,用作提取分類資訊的一種訓練。

(2)、自適應共振理論ART:1976年,美國Grossberg教授提出了著名的自適應共振理論ART(Adaptive Resonance Theory),其學習過程具有自組織和自穩定的特徵。

3.      第三階段----復興時期

(1)、Hopfield模型:1982年,美國物理學家霍普菲爾德(Hopfield)提出了一種離散神經網路,即離散Hopfield網路,從而有力地推動了神經網路的研究。在網路中,它首次將李雅普諾夫(Lyapunov)函式引入其中,後來的研究學者也將Lyapunov函式稱為能量函式。證明了網路的穩定性。1984年,Hopfield 又提出了一種連續神經網路,將網路中神經元的啟用函式由離散型改為連續型。1985 年,Hopfield和Tank利用Hopfield神經網路解決了著名的旅行推銷商問題(Travelling Salesman Problem)。Hopfield神經網路是一組非線性微分方程。Hopfield的模型不僅對人工神經網路資訊儲存和提取功能進行了非線性數學概括,提出了動力方程和學習方程,還對網路演算法提供了重要公式和引數,使人工神經網路的構造和學習有了理論指導,在Hopfield模型的影響下,大量學者又激發起研究神經網路的熱情,積極投身於這一學術領域中。因為Hopfield 神經網路在眾多方面具有巨大潛力,所以人們對神經網路的研究十分地重視,更多的人開始了研究神經網路,極大地推動了神經網路的發展。

(2)、Boltzmann機模型:1983年,Kirkpatrick等人認識到模擬退火演算法可用於NP完全組合優化問題的求解,這種模擬高溫物體退火過程來找尋全域性最優解的方法最早由Metropli等人1953年提出的。1984年,Hinton與年輕學者Sejnowski等合作提出了大規模並行網路學習機,並明確提出隱單元的概念,這種學習機後來被稱為Boltzmann機。

Hinton和Sejnowsky利用統計物理學的感念和方法,首次提出的多層網路的學習演算法,稱為Boltzmann 機模型。

(3)、BP神經網路模型:1986年,儒默哈特(D.E.Ru melhart)等人在多層神經網路模型的基礎上,提出了多層神經網路權值修正的反向傳播學習演算法----BP演算法(Error Back-Propagation),解決了多層前向神經網路的學習問題,證明了多層神經網路具有很強的學習能力,它可以完成許多學習任務,解決許多實際問題。

(4)、並行分佈處理理論:1986年,由Rumelhart和McCkekkand主編的《Parallel Distributed Processing:Exploration in the Microstructures of Cognition》,該書中,他們建立了並行分佈處理理論,主要致力於認知的微觀研究,同時對具有非線性連續轉移函式的多層前饋網路的誤差反向傳播演算法即BP演算法進行了詳盡的分析,解決了長期以來沒有權值調整有效演算法的難題。可以求解感知機所不能解決的問題,回答了《Perceptrons》一書中關於神經網路侷限性的問題,從實踐上證實了人工神經網路有很強的運算能力。

(5)、細胞神經網路模型:1988年,Chua和Yang提出了細胞神經網路(CNN)模型,它是一個細胞自動機特性的大規模非線性計算機模擬系統。Kosko建立了雙向聯想儲存模型(BAM),它具有非監督學習能力。

(6)、Darwinism模型:Edelman提出的Darwinism模型在90年代初產生了很大的影響,他建立了一種神經網路系統理論。

(7)、1988年,Linsker對感知機網路提出了新的自組織理論,並在Shanon資訊理論的基礎上形成了最大互資訊理論,從而點燃了基於NN的資訊應用理論的光芒。

(8)、1988年,Broomhead和Lowe用徑向基函式(Radialbasis function, RBF)提出分層網路的設計方法,從而將NN的設計與數值分析和線性適應濾波相掛鉤。

(9)、1991年,Haken把協同引入神經網路,在他的理論框架中,他認為,認知過程是自發的,並斷言模式識別過程即是模式形成過程。

(10)、1994年,廖曉昕關於細胞神經網路的數學理論與基礎的提出,帶來了這個領域新的進展。通過拓廣神經網路的啟用函式類,給出了更一般的時滯細胞神經網路(DCNN)、Hopfield神經網路(HNN)、雙向聯想記憶網路(BAM)模型。

(11)、90年代初,Vapnik等提出了支援向量機(Supportvector machines, SVM)和VC(Vapnik-Chervonenkis)維數的概念。

經過多年的發展,已有上百種的神經網路模型被提出。

4.      第四階段----高潮時期[注:自己分的,不準確 ^_^ ]

深度學習(Deep Learning,DL)由Hinton等人於2006年提出,是機器學習(Machine Learning, ML)的一個新領域。深度學習本質上是構建含有多隱層的機器學習架構模型,通過大規模資料進行訓練,得到大量更具代表性的特徵資訊。深度學習演算法打破了傳統神經網路對層數的限制,可根據設計者需要選擇網路層數。

三、             人工神經網路的特點

神經網路是由儲存在網路內部的大量神經元通過節點連線權組成的一種資訊響應網狀拓撲結構,它採用了並行分散式的訊號處理機制,因而具有較快的處理速度和較強的容錯能力。

1. 神經網路模型用於模擬人腦神經元的活動過程,其中包括對資訊的加工、處理、儲存、和搜尋等過程。人工神經網路具有如下基本特點:

(1)、高度的並行性:人工神經網路有許多相同的簡單處理單元並聯組合而成,雖然每一個神經元的功能簡單,但大量簡單神經元並行處理能力和效果,卻十分驚人。人工神經網路和人類的大腦類似,不但結構上是並行的,它的處理順序也是並行和同時的。在同一層內的處理單元都是同時操作的,即神經網路的計算功能分佈在多個處理單元上,而一般計算機通常有一個處理單元,其處理順序是序列的。

人腦神經元之間傳遞脈衝訊號的速度遠低於馮·諾依曼計算機的工作速度,前者為毫秒量級,後者的時鐘頻率通常可達108Hz 或更高的速率。但是,由於人腦是一個大規模並行與序列組合處理系統,因而在許多問題上可以做出快速判斷、決策和處理,其速度可以遠高於序列結構的馮·諾依曼計算機。人工神經網路的基本結構模仿人腦,具有並行處理的特徵,可以大大提高工作速度。

(2)、高度的非線性全域性作用:人工神經網路每個神經元接受大量其他神經元的輸入,並通過並行網路產生輸出,影響其他神經元,網路之間的這種互相制約和互相影響,實現了從輸入狀態到輸出狀態空間的非線性對映,從全域性的觀點來看,網路整體效能不是網路區域性效能的疊加,而表現出某種集體性的行為。

非線性關係是自然界的普遍特性。大腦的智慧就是一種非線性現象。人工神經元處於啟用或抑制二種不同的狀態,這種行為在數學上表現為一種非線性人工神經網路。具有閾值的神經元構成的網路具有更好的效能,可以提高容錯性和儲存容量。

(3)、聯想記憶功能和良好的容錯性:人工神經網路通過自身的特有網路結構將處理的資料資訊儲存在神經元之間的權值中,具有聯想記憶功能,從單一的某個權值並看不出其所記憶的資訊內容,因而是分散式的儲存形式,這就使得網路有很好的容錯性,並可以進行特徵提取、缺損模式復原、聚類分析等模式資訊處理工作,又可以作模式聯想、分類、識別工作。它可以從不完善的資料和圖形中進行學習並做出決定。由於知識存在於整個系統中,而不只是一個儲存單元中,預訂比例的結點不參與運算,對整個系統的效能不會產生重大的影響。能夠處理那些有噪聲或不完全的資料,具有泛化功能和很強的容錯能力。

一個神經網路通常由多個神經元廣泛連線而成。一個系統的整體行為不僅取決於單個神經元的特徵,而且可能主要由單元之間的相互作用、相互連線所決定。通過單元之間的大量連線模擬大腦的非侷限性。聯想記憶是非侷限性的典型例子。

(4)、良好的自適應、自學習功能:人工神經網路通過學習訓練獲得網路的權值與結構,呈現出很強的自學習能力和對環境的自適應能力。神經網路所具有的自學習過程模擬了人的形象思維方法,這是與傳統符號邏輯完全不同的一種非邏輯非語言。自適應性根據所提供的資料,通過學習和訓練,找出輸入和輸出之間的內在關係,從而求取問題的解,而不是依據對問題的經驗知識和規則,因而具有自適應功能,這對於弱化權重確定人為因素是十分有益的。

(5)、知識的分佈儲存:在神經網路中,知識不是儲存在特定的儲存單元中,而是分佈在整個系統中,要儲存多個知識就需要很多連結。在計算機中,只要給定一個地址就可得到一個或一組資料。在神經網路中要獲得儲存的知識則採用“聯想”的辦法,這類似人類和動物的聯想記憶。人類善於根據聯想正確識別圖形,人工神經網路也是這樣。神經網路採用分散式儲存方式表示知識,通過網路對輸入資訊的響應將啟用訊號分佈在網路神經元上,通過網路訓練和學習使得特徵被準確地記憶在網路的連線權值上,當同樣的模式再次輸入時網路就可以進行快速判斷。

(6)、非凸性:一個系統的演化方向,在一定條件下將取決於某個特定的狀態函式。例如能量函式,它的極值相應於系統比較穩定的狀態。非凸性是指這種函式有多個極值,故系統具有多個較穩定的平衡態,這將導致系統演化的多樣性。

正是神經網路所具有的這種學習和適應能力、自組織、非線性和運算高度並行的能力,解決了傳統人工智慧對於直覺處理方面的缺陷,例如對非結構化資訊、語音模式識別等的處理,使之成功應用於神經專家系統、組合優化、智慧控制、預測、模式識別等領域。

2. 人工神經網路是一種旨在模仿人腦結構及其功能的資訊處理系統。因此,它在功能上具有某些智慧特點:

(1)、聯想記憶功能:由於神經網路具有分佈儲存資訊和平行計算的效能,因此它具有對外界刺激和輸入資訊進行聯想記憶的能力。這種能力是通過神經元之間的協同結構及資訊處理的集體行為而實現的。神經網路通過預先儲存資訊和學習機制進行自適應訓練,可以從不完整的資訊和噪聲干擾中恢復原始的完整的資訊。這一功能使神經網路在影象復原﹑語音處理﹑模式識別與分類方面具有重要的應用前景。聯想記憶又分自聯想記憶和異聯想記憶兩種。

(2)、分類與識別功能:神經網路對外界輸入樣本有很強的識別與分類能力。對輸入樣本的分類實際上是在樣本空間找出符合分類要求的分割區域,每個區域內的樣本屬於一類。

(3)、優化計算功能:優化計算是指在已知的約束條件下,尋找一組引數組合,使該組合確定的目標函式達到最小。將優化約束資訊(與目標函式有關)儲存於神經網路的連線權矩陣之中,神經網路的工作狀態以動態系統方程式描述。設定一組隨機資料作為起始條件,當系統的狀態趨於穩定時,神經網路方程的解作為輸出優化結果。優化計算在TSP及生產排程問題上有重要應用。

(4)、非線性對映功能:在許多實際問題中,如過程控制﹑系統辨識﹑故障診斷﹑機器人控制等諸多領域,系統的輸入與輸出之間存在複雜的非線性關係,對於這類系統,往往難以用傳統的數理方程建立其數學模型。神經網路在這方面有獨到的優勢,設計合理的神經網路通過對系統輸入輸出樣本進行訓練學習,從理論上講,能夠以任意精度逼近任意複雜的非線性函式。神經網路的這一優良效能使其可以作為多維非線性函式的通用數學模型。

四、             人工神經網路的結構

1. 生物神經元的結構:神經細胞是構成神經系統的基本單元,稱之為生物神經元,簡稱神經元。神經元主要由三部分構成:(1)細胞體;(2)軸突;(3)樹突。如下圖所示:


突觸是神經元之間相互連線的介面部分,即一個神經元的神經末梢與另一個神經元的樹突相接觸的交介面,位於神經元的神經末梢尾端。突觸是軸突的終端。

大腦可視作為1000多億神經元組成的神經網路。神經元的資訊傳遞和處理是一種電化學活動.樹突由於電化學作用接受外界的刺激,通過胞體內的活動體現為軸突電位,當軸突電位達到一定的值則形成神經脈衝或動作電位;再通過軸突末梢傳遞給其它的神經元.從控制論的觀點來看;這一過程可以看作一個多輸入單輸出非線性系統的動態過程。

神經元的功能特性:(1)時空整合功能;(2)神經元的動態極化性;(3)興奮與抑制狀態;(4)結構的可塑性;(5)脈衝與電位訊號的轉換;(6)突觸延期和不應期;(7)學習、遺忘和疲勞。

2.  人工神經元結構:人工神經元的研究源於腦神經元學說,19世紀末,在生物、生理學領域,Waldeger等人建立了神經元學說。

人工神經網路是由大量處理單元經廣泛互連而組成的人工網路,用來模擬腦神經系統的結構和功能。而這些處理單元我們把它稱作人工神經元人工神經網路可看成是以人工神經元為節點,用有向加權弧連線起來的有向圖。在此有向圖中,人工神經元就是對生物神經元的模擬,而有向弧則是軸突----突觸----樹突對的模擬。有向弧的權值表示相互連線的兩個人工神經元間相互作用的強弱。人工神經元結構如下圖所示:


神經網路從兩個方面模擬大腦:

(1)、神經網路獲取的知識是從外界環境中學習得來的。

(2)、內部神經元的連線強度,即突觸權值,用於儲存獲取的知識。

神經網路系統由能夠處理人類大腦不同部分之間資訊傳遞的由大量神經元連線形成的拓撲結構組成,依賴於這些龐大的神經元數目和它們之間的聯絡,人類的大腦能夠收到輸入的資訊的刺激由分散式並行處理的神經元相互連線進行非線性對映處理,從而實現複雜的資訊處理和推理任務。

對於某個處理單元(神經元)來說,假設來自其他處理單元(神經元)i的資訊為Xi,它們與本處理單元的互相作用強度即連線權值為Wi, i=0,1,…,n-1,處理單元的內部閾值為θ。

那麼本處理單元(神經元)的輸入為:,而處理單元的輸出為:

式中,xi為第i個元素的輸入,wi為第i個處理單元與本處理單元的互聯權重即神經元連線權值。f稱為啟用函式或作用函式,它決定節點(神經元)的輸出。θ表示隱含層神經節點的閾值。

神經網路的主要工作是建立模型和確定權值,一般有前向型和反饋型兩種網路結構。通常神經網路的學習和訓練需要一組輸入資料和輸出資料對,選擇網路模型和傳遞、訓練函式後,神經網路計算得到輸出結果,根據實際輸出和期望輸出之間的誤差進行權值的修正,在網路進行判斷的時候就只有輸入資料而沒有預期的輸出結果。神經網路一個相當重要的能力是其網路能通過它的神經元權值和閾值的不斷調整從環境中進行學習,直到網路的輸出誤差達到預期的結果,就認為網路訓練結束。

對於這樣一種多輸入、單輸出的基本單元可以進一步從生物化學、電生物學、數學等方面給出描述其功能的模型。利用大量神經元相互連線組成的人工神經網路,將顯示出人腦的若干特徵,人工神經網路也具有初步的自適應與自組織能力。在學習或訓練過程中改變突觸權重wij值,以適應周圍環境的要求。同一網路因學習方式及內容不同可具有不同的功能。人工神經網路是一個具有學習能力的系統,可以發展知識,以至超過設計者原有的知識水平。通常,它的學習(或訓練)方式可分為兩種,一種是有監督(supervised)或稱有導師的學習,這時利用給定的樣本標準進行分類或模仿;另一種是無監督(unsupervised)學習或稱無導師學習,這時,只規定學習方式或某些規則,而具體的學習內容隨系統所處環境(即輸入訊號情況)而異,系統可以自動發現環境特徵和規律性,具有更近似於人腦的功能。

在人工神經網路設計及應用研究中,通常需要考慮三個方面的內容,即神經元啟用函式、神經元之間的連線形式和網路的學習(訓練)。

3. 神經網路的學習形式:在構造神經網路時,其神經元的傳遞函式和轉換函式就已經確定了。在網路的學習過程中是無法改變轉換函式的,因此如果想要改變網路輸出的大小,只能通過改變加權求和的輸入來達到。由於神經元只能對網路的輸入訊號進行響應處理,想要改變網路的加權輸入只能修改網路神經元的權引數,因此神經網路的學習就是改變權值矩陣的過程。

4. 神經網路的工作過程:神經網路的工作過程包括離線學習和線上判斷兩部分。學習過程中各神經元進行規則學習,權引數調整,進行非線性對映關係擬合以達到訓練精度;判斷階段則是訓練好的穩定的網路讀取輸入資訊通過計算得到輸出結果。

5. 神經網路的學習規則:神經網路的學習規則是修正權值的一種演算法,分為聯想式和非聯想式學習,有監督學習和無監督學習等。下面介紹幾個常用的學習規則。

(1)、誤差修正型規則:是一種有監督的學習方法,根據實際輸出和期望輸出的誤差進行網路連線權值的修正,最終網路誤差小於目標函式達到預期結果。

誤差修正法,權值的調整與網路的輸出誤差有關, 它包括δ學習規則、Widrow-Hoff學習規則、感知器學習規則和誤差反向傳播的BP(Back Propagation)學習規則等。

(2)、競爭型規則:無監督學習過程,網路僅根據提供的一些學習樣本進行自組織學習,沒有期望輸出,通過神經元相互競爭對外界刺激模式響應的權利進行網路權值的調整來適應輸入的樣本資料。

對於無監督學習的情況,事先不給定標準樣本,直接將網路置於“環境”之中,學習(訓練)階段與應用(工作)階段成為一體。

(3)、Hebb型規則:利用神經元之間的活化值(啟用值)來反映它們之間聯接性的變化,即根據相互連線的神經元之間的活化值(啟用值)來修正其權值。

在Hebb學習規則中,學習訊號簡單地等於神經元的輸出。Hebb學習規則代表一種純前饋﹑無導師學習。該學習規則至今在各種神經網路模型中起著重要作用。典型的應用如利用Hebb規則訓練線性聯想器的權矩陣。

(4)、隨機型規則:在學習過程中結合了隨機、概率論和能量函式的思想,根據目標函式(即網路輸出均方差)的變化調整網路的引數,最終使網路目標函式達到收斂值。

6. 啟用函式:在神經網路中,網路解決問題的能力與效率除了與網路結構有關外,在很大程度上取決於網路所採用的啟用函式。啟用函式的選擇對網路的收斂速度有較大的影響,針對不同的實際問題,啟用函式的選擇也應不同。

神經元在輸入訊號作用下產生輸出訊號的規律由神經元功能函式f(Activation Function)給出,也稱啟用函式,或稱轉移函式,這是神經元模型的外特性。它包含了從輸入訊號到淨輸入、再到啟用值、最終產生輸出訊號的過程。綜合了淨輸入、f函式的作用。f函式形式多樣,利用它們的不同特性可以構成功能各異的神經網路。

常用的啟用函式有以下幾種形式:

(1)、閾值函式:該函式通常也稱為階躍函式。當啟用函式採用階躍函式時,人工神經元模型即為MP模型。此時神經元的輸出取1或0,反應了神經元的興奮或抑制。

(2)、線性函式:該函式可以在輸出結果為任意值時作為輸出神經元的啟用函式,但是當網路複雜時,線性啟用函式大大降低網路的收斂性,故一般較少採用。

(3)、對數S形函式:對數S形函式的輸出介於0~1之間,常被要求為輸出在0~1範圍的訊號選用。它是神經元中使用最為廣泛的啟用函式。

(4)、雙曲正切S形函式:雙曲正切S形函式類似於被平滑的階躍函式,形狀與對數S形函式相同,以原點對稱,其輸出介於-1~1之間,常常被要求為輸出在-1~1範圍的訊號選用。

7. 神經元之間的連線形式:神經網路是一個複雜的互連繫統,單元之間的互連模式將對網路的性質和功能產生重要影響。互連模式種類繁多。

(1)、前向網路(前饋網路):網路可以分為若干“層”,各層按訊號傳輸先後順序依次排列,第i層的神經元只接受第(i-1)層神經元給出的訊號,各神經元之間沒有反饋。前饋型網路可用一有向無環路圖表示,如下圖所示:


可以看出,輸入節點並無計算功能,只是為了表徵輸入向量各元素值。各層節點表示具有計算功能的神經元,稱為計算單元。每個計算單元可以有任意個輸入,但只有一個輸出,它可送到多個節點作輸入。稱輸入節點層為第零層。計算單元的各節點層從下至上依次稱為第1至第N層,由此構成N層前向網路。(也有把輸入節點層稱為第1層,於是對N層網路將變為N+1個節點層序號。)

第一節點層與輸出節點統稱為“可見層”,而其他中間層則稱為隱含層(hidden layer),這些神經元稱為隱節點。BP網路就是典型的前向網路。

(2)、反饋網路:典型的反饋型神經網路如下圖a所示:


每個節點都表示一個計算單元,同時接受外加輸入和其它各節點的反饋輸入,每個節點也都直接向外部輸出。Hopfield網路即屬此種類型。在某些反饋網路中,各神經元除接受外加輸入與其它各節點反饋輸入之外,還包括自身反饋。有時,反饋型神經網路也可表示為一張完全的無向圖,如上圖b。圖中,每一個連線都是雙向的。這裡,第i個神經元對於第j個神經元的反饋與第j至i神經元反饋之突觸權重相等,也即wij=wji

以上介紹了兩種最基本的人工神經網路結構,實際上,人工神經網路還有許多種連線形式,例如,從輸出層到輸入層有反饋的前向網路,同層內或異層間有相互反饋的多層網路等等。

五、             人工神經網路模型

1.        人工神經網路的分類:

按效能分:連續型和離散型網路,或確定型和隨機型網路。

按拓撲結構分:前向網路和反饋網路。

前向網路有自適應線性神經網路(AdaptiveLinear,簡稱Adaline)、單層感知器、多層感知器、BP等。

前向網路,網路中各個神經元接受前一級的輸入,並輸出到下一級,網路中沒有反饋,可以用一個有向無環路圖表示。這種網路實現訊號從輸入空間到輸出空間的變換,它的資訊處理能力來自於簡單非線性函式的多次複合。網路結構簡單,易於實現。反傳網路是一種典型的前向網路。

反饋網路有Hopfield、Hamming、BAM等。

反饋網路,網路內神經元間有反饋,可以用一個無向的完備圖表示。這種神經網路的資訊處理是狀態的變換,可以用動力學系統理論處理。系統的穩定性與聯想記憶功能有密切關係。Hopfield網路、波耳茲曼機均屬於這種型別。

按學習方法分:有教師(監督)的學習網路和無教師(監督)的學習網路。

按連線突觸性質分:一階線性關聯網路和高階非線性關聯網路。

2.        生物神經元模型:人腦是自然界所造就的高階動物,人的思維是由人腦來完成的,而思維則是人類智慧的集中體現。人腦的皮層中包含100億個神經元、60萬億個神經突觸,以及他們的連線體。神經系統的基本結構和功能單位就是神經細胞,即神經元,它主要由細胞體、樹突、軸突和突觸組成。人類的神經元具備以下幾個基本功能特性:時空整合功能;神經元的動態極化性;興奮與抑制狀態;結構的可塑性;脈衝與電位訊號的轉換;突觸延期和不延期;學習、遺忘和疲勞;神經網路是由大量的神經元單元相互連線而構成的網路系統。

3.        人工神經網路模型:人工神經網路,使通過模仿生物神經網路的行為特徵,進行分散式並行資訊處理的數學模型。這種網路依靠系統的複雜度,通過調整內部大量節點之間相互連線的關係,從而達到資訊處理的目的。人工神經網路具有自學習和自適應的能力,可以通過預先提供的一批相互對應的輸入輸出資料,分析兩者的內在關係和規律,最終通過這些規律形成一個複雜的非線性系統函式,這種學習分析過程被稱作“訓練”。神經元的每一個輸入連線都有突觸連線強度,用一個連線權值來表示,即將產生的訊號通過連線強度放大,每一個輸入量都對應有一個相關聯的權重。處理單元將經過權重的輸入量化,然後相加求得加權值之和,計算出輸出量,這個輸出量是權重和的函式,一般稱此函式為傳遞函式。

4.        感知器模型:

感知器模型是美國學者羅森勃拉特(Rosenblatt)為研究大腦的儲存、學習和認知過程而提出的一類具有自學習能力的神經網路模型,它把神經網路的研究從純理論探討引向了從工程上的實現。

Rosenblatt提出的感知器模型是一個只有單層計算單元的前向神經網路,稱為單層感知器。

單層感知器模型的學習演算法,演算法思想:首先把連線權和閾值初始化為較小的非零隨機數,然後把有n個連線權值的輸入送入網路,經加權運算處理,得到的輸出如果與所期望的輸出有較大的差別,就對連線權值引數按照某種演算法進行自動調整,經過多次反覆,直到所得到的輸出與所期望的輸出間的差別滿足要求為止。

線性不可分問題:單層感知器不能表達的問題被稱為線性不可分問題。 1969年,明斯基證明了“異或”問題是線性不可分問題。

線性不可分函式的數量隨著輸入變數個數的增加而快速增加,甚至遠遠超過了線性可分函式的個數。也就是說,單層感知器不能表達的問題的數量遠遠超過了它所能表達的問題的數量。

多層感知器:在單層感知器的輸入部分和輸出層之間加入一層或多層處理單元,就構成了二層或多層感知器。

在多層感知器模型中,只允許某一層的連線權值可調,這是因為無法知道網路隱層的神經元的理想輸出,因而難以給出一個有效的多層感知器學習演算法。

多層感知器克服了單層感知器的許多缺點,原來一些單層感知器無法解決的問題,在多層感知器中就可以解決。例如,應用二層感知器就可以解決異或邏輯運算問題

5.        反向傳播模型:

反向傳播模型也稱B-P模型,是一種用於前向多層的反向傳播學習演算法。之所以稱它是一種學習方法,是因為用它可以對組成前向多層網路的各人工神經元之間的連線權值進行不斷的修改,從而使該前向多層網路能夠將輸入它的資訊變換成所期望的輸出資訊。之所以將其稱作為反向學習演算法,是因為在修改各人工神經元的連線權值時,所依據的是該網路的實際輸出與其期望的輸出之差,將這一差值反向一層一層的向回傳播,來決定連線權值的修改。

B-P演算法的網路結構是一個前向多層網路。它是在1986年,由Rumelhant和Mcllelland提出的。是一種多層網路的“逆推”學習演算法。其基本思想是,學習過程由訊號的正向傳播與誤差的反向傳播兩個過程組成。正向傳播時,輸入樣本從輸入層傳入,經隱層逐層處理後,傳向輸出層。若輸出層的實際輸出與期望輸出不符,則轉向誤差的反向傳播階段。誤差的反向傳播是將輸出誤差以某種形式通過隱層向輸入層逐層反傳,並將誤差分攤給各層的所有單元,從而獲得各層單元的誤差訊號,此誤差訊號即作為修正各單元權值的依據。這種訊號正向傳播與誤差反向傳播的各層權值調整過程,是周而復始地進行。權值不斷調整過程,也就是網路的學習訓練過程。此過程一直進行到網路輸出的誤差減少到可以接受的程度,或進行到預先設定的學習次數為止。

反向傳播網路的學習演算法:B-P演算法的學習目的是對網路的連線權值進行調整,使得調整後的網路對任一輸入都能得到所期望的輸出。

學習過程由正向傳播和反向傳播組成。

正向傳播用於對前向網路進行計算,即對某一輸入資訊,經過網路計算後求出它的輸出結果。

反向傳播用於逐層傳遞誤差,修改神經元間的連線權值,以使網路對輸入資訊經過計算後所得到的輸出能達到期望的誤差要求。

B-P演算法的學習過程如下:

(1)、選擇一組訓練樣例,每一個樣例由輸入資訊和期望的輸出結果兩部分組成。

(2)、從訓練樣例集中取一樣例,把輸入資訊輸入到網路中。

(3)、分別計算經神經元處理後的各層節點的輸出。

(4)、計算網路的實際輸出和期望輸出的誤差。

(5)、從輸出層反向計算到第一個隱層,並按照某種能使誤差向減小方向發展的原則,調整網路中各神經元的連線權值。

(6)、對訓練樣例集中的每一個樣例重複(3)-(5)的步驟,直到對整個訓練樣例集的誤差達到要求時為止。

在以上的學習過程中,第(5)步是最重要的,如何確定一種調整連線權值的原則,使誤差沿著減小的方向發展,是B-P學習演算法必須解決的問題。

B-P演算法的優缺點:

優點:理論基礎牢固,推導過程嚴謹,物理概念清晰,通用性好等。所以,它是目前用來訓練前向多層網路較好的演算法。

缺點:(1)、該學習演算法的收斂速度慢;(2)、網路中隱節點個數的選取尚無理論上的指導;(3)、從數學角度看,B-P演算法是一種梯度最速下降法,這就可能出現區域性極小的問題。當出現區域性極小時,從表面上看,誤差符合要求,但這時所得到的解並不一定是問題的真正解。所以B-P演算法是不完備的。

BP演算法侷限性:

(1)、在誤差曲面上有些區域平坦,此時誤差對權值的變化不敏感,誤差下降緩慢,調整時間長,影響收斂速度。這時誤差的梯度變化很小,即使權值的調整量很大,誤差仍然下降很慢。造成這種情況的原因與各節點的淨輸入過大有關。

(2)、存在多個極小點。從兩維權空間的誤差曲面可以看出,其上存在許多凸凹不平,其低凹部分就是誤差函式的極小點。可以想象多維權空間的誤差曲面,會更加複雜,存在更多個區域性極小點,它們的特點都是誤差梯度為0。BP演算法權值調整依據是誤差梯度下降,當梯度為0時,BP演算法無法辨別極小點性質,因此訓練常陷入某個區域性極小點而不能自拔,使訓練難以收斂於給定誤差。

BP演算法改進:誤差曲面的平坦區將使誤差下降緩慢,調整時間加長,迭代次數增多,影響收斂速度;而誤差曲面存在的多個極小點會使網路訓練陷入區域性極小,從而使網路訓練無法收斂於給定誤差。這兩個問題是BP網路標準演算法的固有缺陷。

針對此,國內外不少學者提出了許多改進演算法,幾種典型的改進演算法:

(1)、增加動量項:標準BP演算法在調整權值時,只按t時刻誤差的梯度下降方向調整,而沒有考慮t時刻以前的梯度方向,從而常使訓練過程發生振盪,收斂緩慢。為了提高訓練速度,可以在權值調整公式中加一動量項。大多數BP演算法中都增加了動量項,以至於有動量項的BP演算法成為一種新的標準演算法。

(2)、可變學習速度的反向傳播演算法(variable learning rate back propagation,VLBP):多層網路的誤差曲面不是二次函式。曲面的形狀隨引數空間區域的不同而不同。可以在學習過程中通過調整學習速度來提高收斂速度。技巧是決定何時改變學習速度和怎樣改變學習速度。可變學習速度的VLBP演算法有許多不同的方法來改變學習速度。

(3)、學習速率的自適應調節:可變學習速度VLBP演算法,需要設定多個引數,演算法的效能對這些引數的改變往往十分敏感,另外,處理起來也較麻煩。此處給出一簡潔的學習速率的自適應調節演算法。學習率的調整隻與網路總誤差有關。學習速率η也稱步長,在標準BP中是一常數,但在實際計算中,很難給定出一個從始至終都很合適的最佳學習速率。從誤差曲面可以看出,在平坦區內η太小會使訓練次數增加,這時候希望η值大一些;而在誤差變化劇烈的區域,η太大會因調整過量而跨過較窄的“凹坑”處,使訓練出現振盪,反而使迭代次數增加。為了加速收斂過程,最好是能自適應調整學習率η,使其該大則大,該小則小。比如可以根據網路總誤差來調整.

(4)、引入陡度因子----防止飽和:誤差曲面上存在著平坦區。其權值調整緩慢的原因在於S轉移函式具有飽和特性造成的。如果在調整進入平坦區後,設法壓縮神經元的淨輸入,使其輸出退出轉移函式的飽和區,就可改變誤差函式的形狀,從而使調整脫離平坦區。實現這一思路的具體作法是在轉移函式中引進一個陡度因子。

BP神經網路設計的一般原則:關於它的開發設計,大多數是根據使用者的經驗來設計網路結構﹑功能函式﹑學習演算法﹑樣本等。

[1]、BP網路引數設計

(1)、BP網路輸入與輸出引數的確定

A、輸入量的選擇:

a、輸入量必須選擇那些對輸出影響大且能夠檢測或提取的變數;

b、各輸入量之間互不相關或相關性很小。從輸入、輸出量性質分類來看,可以分為兩類:數值變數和語言變數。數值變數又分為連續變數或離散變數。如常見的溫度,壓力,電壓,電流等就是連續變數;語言變數是用自然語言表示的概念。如紅,綠,藍;男,女;大,中,小,開,關,亮,暗等。一般來說,語言變數在網路處理時,需要轉化為離散變數。

c、輸入量的表示與提取:多數情況下,直接送給神經網路的輸入量無法直接得到,常常需要用訊號處理與特徵提取技術從原始資料中提取能反映其特徵的若干引數作為網路輸入。

B、輸出量選擇與表示:

a、輸出量一般代表系統要實現的功能目標,如分類問題的類別歸屬等;

b、輸出量表示可以是數值也可是語言變數;

(2)、訓練樣本集的設計

網路的效能與訓練用的樣本密切相關,設計一個好的訓練樣本集既要注意樣本規模,又要注意樣本質量。

A、樣本數目的確定:一般來說樣本數n越多,訓練結果越能正確反映其內在規律,但樣本的獲取往往有一定困難,另一方面,當樣本數n達到一定數量後,網路的精度也很難提高。

選擇原則:網路規模越大,網路對映關係越複雜,樣本數越多。一般說來,訓練樣本數是網路連線權總數的5~10倍,但許多情況難以達到這樣的要求。

B、樣本的選擇和組織:

a、樣本要有代表性,注意樣本類別的均衡;

b、樣本的組織要注意將不同類別的樣本交叉輸入;

c、網路的訓練測試,測試標準是看網路是否有好的泛化能力。測試做法:不用樣本訓練集中資料測試。一般是將收集到的可用樣本隨機地分成兩部分,一部分為訓練集,另一部分為測試集。若訓練樣本誤差很小,而對測試集的樣本誤差很大,泛化能力差。

(3)、初始權值的設計

網路權值的初始化決定了網路的訓練從誤差曲面的哪一點開始,因此初始化方法對縮短網路的訓練時間至關重要。

神經元的作用函式是關於座標點對稱的,若每個節點的淨輸入均在零點附近,則輸出均出在作用函式的中點,這個位置不僅遠離作用函式的飽和區,而且是其變化最靈敏的區域,必使網路學習加快。從神經網路淨輸入表示式來看,為了使各節點的初始淨輸入在零點附近,如下兩種方法被常常使用:

A、取足夠小的初始權值;

B、使初始值為+1和-1的權值數相等。

[2]、BP網路結構引數設計

隱層結構設計

(1)、隱層數設計:理論證明,具有單隱層的前饋網路可以對映所有連續函式,只有當學習不連續函式時才需要兩個隱層,故一般情況隱層最多需要兩層。一般方法是先設一個隱層,當一個隱層的節點數很多,仍不能改善網路效能時,再增加一個隱層。最常用的BP神經網路結構是3層結構,即輸入層﹑輸出層和1個隱層。

(2)、隱層節點數設計:隱層節點數目對神經網路的效能有一定的影響。隱層節點數過少時,學習的容量有限,不足以儲存訓練樣本中蘊涵的所有規律;隱層節點過多不僅會增加網路訓練時間,而且會將樣本中非規律性的內容如干擾和噪聲儲存進去。反而降低泛化能力。一般方法是湊試法:

6.        Hopfield模型:

Hopfield模型是霍普菲爾德分別於1982年及1984提出的兩個神經網路模型。1982年提出的是離散型,1984年提出的是連續型,但它們都是反饋網路結構。

由於在反饋網路中,網路的輸出要反覆地作為輸入再送入網路中,這就使得網路具有了動態性,網路的狀態在不斷的改變之中,因而就提出了網路的穩定性問題。所謂一個網路是穩定的是指從某一時刻開始,網路的狀態不再改變。

    設用X(t)表示網路在時刻t的狀態,如果從t=0的任一初態X(0)開始,存在一個有限的時刻t,使得從此時刻開始神經網路的狀態不再發生變化,就稱此網路是穩定的。

離散網路模型是一個離散時間系統,每個神經元只有兩個狀態,可以用1和0來表示,由連線權值Wij所構成的矩陣是一個對角線為0的對稱矩陣。

Hopfield網路離散模型有兩種工作模式:

(1)、序列方式,是指在任一時刻t,只有一個神經元i發生狀態變化,而其餘的神經元保持狀態不變。

(2)、並行方式,是指在任一時刻t,都有部分或全體神經元同時改變狀態。

 有關離散的Hopfield網路的穩定性問題,已於1983年由Cohen和Grossberg給於了證明。而Hopfield等人又進一步證明,只要連線權值構成的矩陣是非負對角元的對稱矩陣,則該網路就具有序列穩定性。

1984年,Hopfield又提出了連續時間的神經網路,在這種神經網路中,各節點可在0到1的區間內取任一實數值。

Hopfield網路是一種非線性的動力網路,可通過反覆的網路動態迭代來求解問題,這是符號邏輯方法所不具有的特性。在求解某些問題時,其求解問題的方法與人類求解問題的方法很相似,雖然所求得的解不是最佳解,但其求解速度快,更符合人們日常解決問題的策略。

Hopfield遞迴網路是美國加洲理工學院物理學家J.J.Hopfield教授於1983年提出的。Hopfield網路按網路輸入和輸出的數字形式不同可分為離散型和連續型兩種網路,即:離散型Hopfield神經網路----DHNN(Discrete Hopfield Neural Network);連續型Hopfield神經網路----CHNN(ContinuesHopfield Neural Network)。

         DHNN結構:它是一種單層全反饋網路,共有n個神經元。每個神經元都通過連線權接收所有其它神經元輸出反饋來的資訊,其目的是為了讓任一神經元的輸出能接受所有神經元輸出的控制,從而使各神經元能相互制約。

DHNN的設計原則:吸引子的分佈是由網路的權值(包括閥值)決定的,設計吸引子的核心就是如何設計一組合適的權值。為了使所設計的權值滿足要求,權值矩陣應符合以下要求:(1)、為保證非同步方式工作時網路收斂,W應為對稱陣;(2)、為保證同步方式工作時網路收斂,W應為非負定對稱陣;(3)、保證給定的樣本是網路的吸引子,並且要有一定的吸引域。

具體設計時,可以採用不同的方法:(1)、聯立方程法;(2)、外積和法。

         CHNN:在連續型Hopfield神經網路中,所有神經元都隨時間t並行更新,網路狀態隨時間連續改變。

Hopfield網路的主要功能

Hopfield神經網路的提出就是與其實際應用密切相關。其主要功能在以下兩個方面。

(1)、聯想記憶:輸入--輸出模式的各元素之間,並不存在一對一的對映關係,輸入--輸出模式的維數也不要求相同;聯想記憶時,只給出輸入模式部分資訊,就能聯想出完整的輸出模式。即具有容錯性。

(2)、CHNN的優化計算功能.

應用Hopfield 神經網路來解決優化計算問題的一般步驟為:

A、分析問題:網路輸出與問題的解相對應。

B、構造網路能量函式:構造合適的網路能量函式,使其最小值對應問題最佳解。

C、設計網路結構:將能量函式與標準式相比較,定出權矩陣與偏置電流。

D、由網路結構建立網路的電子線路並執行,穩態--優化解或計算機模擬執行。

7.        BAM模型

神經網路的聯想記憶功能可以分為兩種,一是自聯想記憶,另一種是異聯想記憶。Hopfield神經網路就屬於自聯想記憶。由Kosko B.1988 年提出的雙向聯想記憶神經網路BAM(Bidirectional Associative Memory)屬於異聯想記憶。BAM有離散型﹑連續型和自適應型等多種形式。

8.        CMAC模型

BP神經網路﹑Hopfield神經網路和BAM雙向聯想記憶神經網路分別屬於前饋和反饋神經網路,這主要是從網路的結構來劃分的。如果從神經網路的函式逼近功能這個角度來分,神經網路可以分為全域性逼近網路和區域性逼近網路。當神經網路的一個或多個可調引數(權值和閾值)在輸入空間的每一點對任何一個輸出都有影響,則稱該神經網路為全域性逼近網路,多層前饋BP網路是全域性逼近網路的典型例子。對於每個輸入輸出資料對,網路的每一個連線權均需進行調整,從而導致全域性逼近網路學習速度很慢,對於有實時性要求的應用來說常常是不可容忍的。如果對網路輸入空間的某個區域性區域只有少數幾個連線權影響網路輸出,則稱網路為區域性逼近網路。對於每個輸入輸出資料對,只有少量的連線權需要進行調整,從而使區域性逼近網路具有學習速度快的優點,這一點對於有實時性要求的應用來說至關重要。目前常用的區域性逼近神經網路有CMAC網路、徑向基函式RBF網路和B樣條網路等,其結構原理相似。

1975年J.S.Albus提出一種模擬小腦功能的神經網路模型,稱為Cerebellar Model Articulation Controller,簡稱CMAC。CMAC網路是仿照小腦控制肢體運動的原理而建立的神經網路模型。小腦指揮運動時具有不假思索地作出條件反射迅速響應的特點,這種條件反射式響應是一種迅速聯想。

CMAC 網路有三個特點:

(1)、作為一種具有聯想功能的神經網路,它的聯想具有區域性推廣(或稱泛化)能力,因此相似的輸入將產生相似的輸出,遠離的輸入將產生獨立的輸出;

(2)、對於網路的每一個輸出,只有很少的神經元所對應的權值對其有影響,哪些神經元對輸出有影響則有輸入決定;

(3)、CMAC的每個神經元的輸入輸出是一種線性關係,但其總體上可看做一種表達非線性對映的表格系統。由於CMAC網路的學習只在線性對映部分,因此可採用簡單的δ演算法,其收斂速度比BP演算法快得多,且不存在區域性極小問題。CMAC最初主要用來求解機械手的關節運動,其後進一步用於機械人控制、模式識別、訊號處理以及自適應控制等領域。

9.        RBF模型

對區域性逼近神經網路,除CMAC神經網路外,常用的還有徑向基函式RBF網路和B樣條網路等。徑向基函式(RBF,Radial Basis Function)神經網路,是由J.Moody 和C.Darken於20世紀80年代末提出的一種神經網路,徑向基函式方法在某種程度上利用了多維空間中傳統的嚴格插值法的研究成果。在神經網路的背景下,隱藏單元提供一個“函式”集,該函式集在輸入模式向量擴充套件至隱層空間時為其構建了一個任意的“基”;這個函式集中的函式就被稱為徑向基函式。徑向基函式首先是在實多變數插值問題的解中引入的。徑向基函式是目前數值分析研究中的一個主要領域之一。

最基本的徑向基函式(RBF)神經網路的構成包括三層,其中每一層都有著完全不同的作用。輸入層由一些感知單元組成,它們將網路與外界環境連線起來;第二層是網路中僅有的一個隱層,它的作用是從輸入空間到隱層空間之間進行非線性變換,在大多數情況下,隱層空間有較高的維數;輸出層是線性的,它為作用於輸入層的啟用模式提供響應。

基本的徑向基函式RBF網路是具有單穩層的三層前饋網路。由於它模擬了人腦中區域性調整、相互覆蓋接受域(或稱感受域,Receptive Field)的神經網路結構,因此,RBF網路是一種區域性逼近網路,現已證明它能以任意精度逼近任一連續函式.

         RBF網路的常規學習演算法,一般包括兩個不同的階段:

(1)、隱層徑向基函式的中心的確定階段。常見方法有隨機選取固定中心法;中心的自組織選擇法等。

(2)、徑向基函式權值學習調整階段。常見方法有中心的監督選擇法;正則化嚴格插值法等。

10.    SOM模型

芬蘭Helsink大學Kohonen T.教授提出一種自組織特徵對映網路SOM(Self-organizing feature Map),又稱Kohonen網路。Kohonen認為,一個神經網路接受外界輸入模式時,將會分為不同的對應區域,各區域對輸入模式有不同的響應特徵,而這個過程是自動完成的。SOM網路正是根據這一看法提出的,其特點與人腦的自組織特性相類似。

         自組織神經網路結構

(1)、定義:自組織神經網路是無導師學習網路。它通過自動尋找樣本中的內在規律和本質屬性,自組織、自適應地改變網路引數與結構。

(2)、結構:層次型結構,具有競爭層。典型結構:輸入層+競爭層。

輸入層:接受外界資訊,將輸入模式向競爭層傳遞,起“觀察”作用。

競爭層:負責對輸入模式進行“分析比較,尋找規律,並歸類。

自組織神經網路的原理

(1)、分類與輸入模式的相似性:分類是在類別知識等導師訊號的指導下,將待識別的輸入模式分配到各自的模式類中,無導師指導的分類稱為聚類,聚類的目的是將相似的模式樣本劃歸一類,而將不相似的分離開來,實現模式樣本的類內相似性和類間分離性。由於無導師學習的訓練樣本中不含期望輸出,因此對於某一輸入模式樣本應屬於哪一類並沒有任何先驗知識。對於一組輸入模式,只能根據它們之間的相似程度來分為若干類,因此,相似性是輸入模式的聚類依據。

(2)、相似性測量:神經網路的輸入模式向量的相似性測量可用向量之間的距離來衡量。常用的方法有歐氏距離法和餘弦法兩種。

(3)、競爭學習原理:競爭學習規則的生理學基礎是神經細胞的側抑制現象:當一個神經細胞興奮後,會對其周圍的神經細胞產生抑制作用。最強的抑制作用是競爭獲勝的“唯我獨興”,這種做法稱為“勝者為王”,(Winner-Take-All)。競爭學習規則就是從神經細胞的側抑制現象獲得的。它的學習步驟為:A、向量歸一化;B、尋找獲勝神經元;C、網路輸出與權調整;D、重新歸一化處理。

         SOM網路的拓撲結構:SOM網路共有兩層。即:輸入層和輸出層。

(1)、輸入層:通過權向量將外界資訊彙集到輸出層各神經元。輸入層的形式與BP網相同,節點數與樣本維數相同。

(2)、輸出層:輸出層也是競爭層。其神經元的排列有多種形式。分為一維線陣,二維平面陣和三維柵格陣。最典型的結構是二維形式。它更具大腦皮層的形象。

輸出層的每個神經元同它周圍的其他神經元側向連線,排列成棋盤狀平面;輸入層為單層神經元排列。

SOM權值調整域

SOM網採用的演算法,稱為Kohonen演算法,它是在勝者為王WTA(Winner-Take-All)學習規則基礎上加以改進的,主要區別是調整權向量與側抑制的方式不同:WTA:側抑制是“封殺”式的。只有獲勝神經元可以調整其權值,其他神經元都無權調整。Kohonen演算法:獲勝神經元對其鄰近神經元的影響是由近及遠,由興奮逐漸變為抑制。換句話說,不僅獲勝神經元要調整權值,它周圍神經元也要不同程度調整權向量。

SOM網路執行原理

SOM網路的執行分訓練和工作兩個階段。在訓練階段,網路隨機輸入訓練集中的樣本,對某個特定的輸入模式,輸出層會有某個節點產生最大響應而獲勝,而在訓練開始階段,輸出層哪個位置的節點將對哪類輸入模式產生最大響應是不確定的。當輸入模式的類別改變時,二維平面的獲勝節點也會改變。獲勝節點周圍的節點因側向相互興奮作用也產生較大影響,於是獲勝節點及其優勝鄰域內的所有節點所連線的權向量均向輸入方向作不同程度的調整,調整力度依鄰域內各節點距離獲勝節點的遠近而逐漸減小。網路通過自組織方式,用大量訓練樣本調整網路權值,最後使輸出層各節點成為對特定模式類敏感的神經元,對應的內星權向量成為各輸入模式的中心向量。並且當兩個模式類的特徵接近時,代表這兩類的節點在位置上也接近。從而在輸出層形成能反應樣本模式類分佈情況的有序特徵圖。

11.    CPN模型

1987年美國學者RobertHecht —Nielson提出了對偶傳播神經網路(Counter--propagation Networks,簡記為CPN)。CPN最早是用來實現樣本選擇匹配系統的。它能儲存二進位制或模擬值的模式對,因此CPN網路可以用作聯想儲存﹑模式分類﹑函式逼近和資料壓縮等用途。與BP網相比,CPN的訓練速度要快很多,所需的時間大約是BP網所需時間的1%。但是,它的應用面卻因網路的效能相對來說比較窄。

從網路的拓撲結構來看,CPN與BP網類似,CPN是一個三層的神經網路,只不過這競爭層和輸出層執行的訓練演算法是不同的。所以,稱CPN 是一個異構網。與同構網相比,網路的異構性使它更接近於人腦。在人腦中存在有各種特殊的模組,它們使用完成不同的運算。例如,在聽覺通道的每一層,其神經元與神經纖維在結構上的排列與頻率的關係十分密切,對某一些頻率,其中某些相應的神經元會獲得最大的響應。這種聽覺通道上的神經元的有序排列一直延續到聽覺皮層。儘管許多低層次上的神經元是預先排列好的,但高層次上的神經元的組織則是通過學習自組織形成的。

在RobertHecht—Nielson提出的CPN神經網路中,其競爭層和輸出層分別執行較早些時候出現的兩個著名演算法:即Kohonen l981年提出的自組織對映SOM演算法和Grossberg l969年提出的外星(Outstar)演算法。人們將執行自組織對映的層稱為Kohonen層,執行外星演算法的層則被稱為Grossberg層。按這種方法將這兩種演算法組合在一起後所獲得的網路,不僅提供了一種設計多級網訓練演算法的思路,解決了多級網路的訓練問題,突破了單極網的限制,而且還使得網路具有了許多新的特點。多級網路的訓練問題主要是在解決隱藏層神經元相應的聯接權調整時,需要通過隱藏層神經元的理想輸出