1. 程式人生 > >機器學習之邏輯迴歸(logistic regression)

機器學習之邏輯迴歸(logistic regression)

概述

  • 邏輯斯蒂迴歸實質是對數機率迴歸(廣義的線性迴歸),是用來解決分類問題的。
  • 其中sigmoid用來解決二分類問題,softmax解決多分類問題,sigmoid是softmax的特殊情況。
  • 數學建模直接針對分類可能性建模。
  • 引數學習可用極大似然估計或貝葉斯估計,利用極大似然估計求得的目標函式與交叉熵損失一致。
  • 梯度下降之sigmoid和softmax函式的求導。

一、基本的數學概念和推導

1. logistic函式(也叫logistic分佈函式)

  • logistic函式形如“S”,具體公式如下:
    f(x)=L1+ek(xx0)
    其中:
    x0
    代表中點,L代表函式的最大值,k代表曲線的陡度。
  • 標準的logistic函式(即sigmoid函式),x0=0k=1,L=1,即:
    f(x)=11+ex
    標準邏輯斯蒂函式
  • 概念
    sigmoid是logistic函式的特例,如上所述,x0=0k=1,L=1時,logistic函式就退化為sigmoid函式。

    f(x)=11+ex
  • 考察sigmoid函式的性質

    • 關於(0,0.5)中心對稱
    • 值域:f(x)[0,1]
    • 梯度飽和:x,f(x)0
    • 簡單變形:
      f(x)=11+ex=ex1+exex1+ex=1ex1+exf(x)=1f(x)
    • 導數
      f(x)=f(x)×(1f(x))[0,14],梯度飽和的原因。推導如下: