1. 程式人生 > >吳恩達-機器學習(4)-神經網路

吳恩達-機器學習(4)-神經網路

文章目錄

Neural NetWorking

Non-linear Hypotheses


當特徵數量大時,在進行邏輯迴歸和線性迴歸時要包含所有的相關項,二項式的個數以n^2的量級增長,最終的結果可能過擬合,同時計算量也過大。
####Model Representation
x

0 x_0 為偏置單位,總是等於1,x是輸入, h θ ( x )
h_\theta(x)
是輸出, θ \theta 是權重即函式的引數, h θ (
x ) h_\theta(x)
和邏輯迴歸中的邏輯函式相同,在神經元中被稱為激勵函式

第一層是輸入層,第二層是隱藏層,第三層是輸出層,每條邊上有一個權重 θ \theta

a i ( j ) a_i^{(j)} 表示第j層的第i個激勵,所謂的激勵是指由一個具體神經元讀入、計算並輸出的值
θ j \theta^j 第j層到第j+1層單元的權值矩陣
θ j \theta^j 的維數是 S j + 1 × ( S j + 1 ) S_{j+1}\times(S_j+1) S j S_j 表示第j層的單元數

將上述的公式向量化

Examples and Intuitions

構造實現與功能的神經網路

構造實現或功能的神經網路

構造實現異或功能的神經網路

Mutlli-class Classification

為了將資料分類為多個類,我們讓我們的假設函式返回一個值向量。假設我們想把我們的資料劃分為四類之一。我們將使用下面的例子來了解這種分類是如何完成的。這個演算法將輸入一個影象並相應地進行分類