1. 程式人生 > >8種神經網路架構

8種神經網路架構

機器學習方法:不去手動編寫程式對每個特定任務,我們首席大量樣本,對給定輸入確定正確的輸出就行。機器學習演算法利用這些樣本得到一個程式就可以完成特定任務。

1-Feed Forward Neural Networks
這是在實際應用中最常見的型別的網路。第一層是輸入最後一層是輸出。若超過多於一層的隱藏層,我們稱為深度神經網路。計算一系列轉換。在每一層的神經元的活動是上一層活動的非線性函式。

2-迴圈網路
迴圈網路在其連線圖中具有有向圈。這意味著我們可以返回到我們開始的地方。迴圈網路具有複雜的動態性並且這使得它們很難訓練,但它們在生物學上更逼真。迴圈網路是種很自然的方法去建模序列資料。它們等於深度網路在每個時間切片上只有一個隱藏層,它們在每個時間切片中使用相同的權重,並且在每個時間切片得到輸入。它們能夠很長時間記憶在隱藏狀態中資訊,但很難訓練。

3對稱地連線網路
類似迴圈網路,但是單元之間的連線是對稱的(它們具有相同的權重在雙向中)。對稱網路比迴圈網路更容易分析,沒有隱藏單元的對稱地連線網路稱為:”Hopfield Nets” 具有隱藏單元的對稱連線網路稱為boltzmann machines。

1 感知機
在標準統計模式識別正規化中,我們首先轉換輸入向量到一個特徵啟用值向量。然後使用基於通感的手工程式來定義特徵。接下來,我們學習如何賦權每個特徵啟用值來得到單個標量值。若這個值超過某些閾值,我們決定該輸入向量是正樣本關於目標類別。然而感知機具有侷限:若通過手工方式選擇特徵,並且使用足夠特徵,你可以做任何事。對於二元輸入向量,我們能有一個分離的特徵單元對於每個二元向量(指數級)所以我們可以做任何判別在二元輸入向量。但一旦手工特徵確定,它們具有很強的侷限關於感知機所能學習的內容上。