1. 程式人生 > >斯坦福大學機器學習筆記——正則化的邏輯迴歸模型

斯坦福大學機器學習筆記——正則化的邏輯迴歸模型

在上面部落格中我們討論了正則化的線性迴歸模型,下面我們來討論一下正則化的邏輯迴歸模型。
前面我們講述了兩種常用於邏輯迴歸的方法:

  1. 基於梯度下降法的邏輯迴歸模型
  2. 基於高階優化的邏輯迴歸模型

基於梯度下降法的邏輯迴歸模型:
首先我們還是需要先設計加入正則化後的損失函式,與線性迴歸模型相似,我們只需要在原來邏輯迴歸損失函式的基礎上加入正則化即可,於是,加入正則化後的損失函式為:
這裡寫圖片描述
與線性迴歸模型相同,我們不對引數θ0進行懲罰。對上述損失函式求取的過程同樣與線性迴歸模型一樣,可以分為兩步,求取梯度下降的過程如下所所示:
這裡寫圖片描述
值得注意的是:上面的式子看上去與線性迴歸的式子相同,但是由於假設的不同,所以與線性迴歸在本質上是不同的。同時不對引數θ

0進行懲罰。

基於高階優化的正則化邏輯迴歸模型:
與原來講述的額高階優化相同,在matlab中可以通過fminuc函式來實現最小化,值得注意的是引數θ0的更新規則與其他情況不同,同時在高階優化中損失函式需要我們自己定義。下面就是高階優化計算損失函式的過程:
這裡寫圖片描述
計算之後的損失函式,就可以使用fminuc函式進行最小化,具體的細節可以參考這裡