1. 程式人生 > >吳恩達機器學習之邏輯迴歸理論部分

吳恩達機器學習之邏輯迴歸理論部分

一.特徵函式

對應分類問題,我們先針對二分類問題進行討論,對應計算機而言,分類即將資料按其特徵值不同分為不同的集合,僅對應二分類問題,我們只需考慮分為:正類和負類,為此我們引入特徵函式

  • y=1 — 代表二分類中的正類

  • y=0 — 代表二分類中的反類
    這是特殊函式在集合意義上的理解,如果換成概率角度上的理解呢?
    對應二分類問題(監督學習),我們如果設定一個標準值,按照NG的說法設定為1(正類),那麼特徵函式可以這樣理解:

  • y=1 — 代表二分類中的正類出現的概率為100%(必然事件)

  • y=1 — 代表二分類中的正類出現的概率為0(不可能事件)
    注意:這裡的y是指訓練集中的資料,是給定值並非模型預測值

二.邏輯迴歸函式(sigmoid函式)

特徵函式的引入是對於訓練集內資料分類的描述標準,那麼,對於模型預測值我們又應該以什麼樣的標準來衡量呢?
為此,我們引入sigmoid函式:
在這裡插入圖片描述
在這裡插入圖片描述
接下來我們來分析這個函式的作用:
這個函式是將g(z)的範圍壓縮至【0,1】區間內,我們知道,線上性迴歸演算法中,假設函式被定義為在這裡插入圖片描述 此時假設函式的取值範圍可以為在這裡插入圖片描述在二分類中,輸出 y 的取值只能為 0 或者 1,
在這裡插入圖片描述之外包裹一層 Sigmoid 函式,使之取值範圍屬於 (0,1)
這樣我們就能從概率的角度來衡量得出的模型預測值h(x)了,其意義便是通過以訓練好的模型預測出此組資料為正類的概率:
在這裡插入圖片描述
對應得到此組資料為負類的概率P(y=0|x;θ) = 1-h(x)

三. 決策邊界(Decision Boundary)

根據以上假設函式表示概率,我們可以推得:
List item θ’x>=0
在這裡插入圖片描述 θ’x<0
由此在這裡插入圖片描述可得出決策邊界在這裡插入圖片描述
在這裡插入圖片描述