1. 程式人生 > >邏輯斯諦回歸

邏輯斯諦回歸

分類 梯度 rac 損失函數 sum dot 對數 回歸 lin

邏輯斯諦回歸

邏輯斯諦回歸模型和最大熵模型都是對數線性模型。

邏輯斯諦分布

\(X\)是隨機變量

二項式邏輯斯諦回歸模型

\[ p(Y=1|x)=\frac{exp(w\cdot x+b)}{1+exp(w\cdot x+b)} \]
對於二分類有
\[ P(y|x)=y^{h_{\theta}(x)}(1-y)^{(1-h_{\theta}(x))} \]

對數損失函數

\[ L(Y,P(Y|X)) = -log(P(Y|X)) \]

\[ cost(h_{\theta}(x),y) = -log(p(y|x)) \]
\(L\) 越小,說明 \(P(Y|X)\) 越大。

所以邏輯斯諦回歸的損失函數如下:

\[ \operatorname{L}\left(h_{\theta}(x), y\right)=\frac{1}{m}\sum_{i=1}^{m}-y_{i} \log \left(h_{\theta}(x)\right)-\left(1-y_{i}\right) \log \left(1-h_{\theta}(x)\right) \]

\[ J(w) = -\frac{1}{m}\sum^m_{i=1}{y_i(w\cdot x_i)-log(1+exp(w\cdot x_i)} \]

參數求解

使用梯度下降法:
\[ \frac{\delta}{\delta_{\theta_{j}}} J(w)=-\frac{1}{m}\sum^m_{i=1}y_ix_i-\frac{x_iexp(wx_i)}{1+exp(wx_i)} \]


\[ w = w-\alpha\frac{\delta}{\delta_{\theta_{j}}} J(w) \]

邏輯斯諦回歸