1. 程式人生 > >深度學習演算法原理——Softmax Regression

深度學習演算法原理——Softmax Regression

一、Logistic迴歸簡介

Logistic迴歸是解決二分類問題的分類演算法。假設有m個訓練樣本{(x(1),y(1)),(x(2),y(2)),,(x(m),y(m))},對於Logistic迴歸,其輸入特徵為:x(i)n+1,類標記為:y(i){0,1},假設函式為Sigmoid函式:

hθ(x)=11+eθTx

其中,模型的引數為θ,需要通過最小化損失函式得到,模型的損失函式為:

J(θ)=1mi=1m[y(i)loghθ(x(i))+(1y(i))log(1hθ(x(i)))]

此時,可以通過梯度下降法對其進行求解,其梯度為: