1. 程式人生 > >Ng | Logistic迴歸

Ng | Logistic迴歸

為什麼不用線性迴歸

在這裡插入圖片描述

通常不推薦將線性迴歸用於分類問題

在這裡插入圖片描述

線性迴歸是假設y遠大於1 或者遠小於0的

假設陳述

  • List item

我們接下來會develope logistic迴歸 在這裡插入圖片描述

在這裡插入圖片描述

決策界限

讓我們來看看logistic迴歸在計算什麼 在這裡插入圖片描述

決策邊界是假設函式的一個屬性

在這裡插入圖片描述

在這裡插入圖片描述

代價函式

如何去擬合函式呢?

在這裡插入圖片描述

在這裡插入圖片描述

如果是邏輯迴歸,也不是不能用上面這個代價函式,但是如果使用這個,他會變成引數 theta的非凸函式

什麼是非凸函式呢?

在這裡插入圖片描述

左圖是最小二乘法的,非凸 我們想找右圖那樣的

這部分原因,在其他資料看並非如此,而是誤差值很大的時候,斜率很小

在這裡插入圖片描述

在這裡插入圖片描述

在這裡插入圖片描述

簡化代價函式與梯度

我們會找出一種相對簡單的方法來寫代價函式

聽完這節 你需要實現一個完整的logistic迴歸演算法

在這裡插入圖片描述

這個式子是通過最大似然法得來的

在這裡插入圖片描述

在這裡插入圖片描述

在這裡插入圖片描述

藍色框長這麼像,但是對於h_(theta)發生了變化

線性迴歸是wx 邏輯迴歸是exp(……)^-1

就是假設函式的發生了變化,他倆成了玩去那不同的東西

在這裡插入圖片描述

最後還有一個之前談線性迴歸時,講到的特徵縮放。

高階優化

高階優化演算法和高階優化概念

在這裡插入圖片描述

在這裡插入圖片描述

這些高階優化演算法的思路就是 給出計算導數項和代價函式的方法,有一個智慧內迴圈,事實上它們確實有一個智慧內迴圈,稱為線搜尋演算法。它可以自動嘗試不同的學習速率alpha並自動選擇一個好的學習速率alpha。它們甚至可以為每次迭代選擇不同的學習速率。它們的複雜,並非僅僅為了選擇一個學習率,它們收斂速度也遠遠快於梯度下降。

多元分類

在這裡插入圖片描述

在這裡插入圖片描述

在這裡插入圖片描述

在這裡插入圖片描述