1. 程式人生 > >邏輯斯第迴歸、softmax分類與多層感知器

邏輯斯第迴歸、softmax分類與多層感知器

本專欄將推出一系列深度學習與影象處理相關的教程文章。注重原理精講和程式碼實現。實現框架將重點選擇Tensorflow或Pytorch。本講從邏輯斯第迴歸入手,然後講解softmax分類器,最後講解多層感知器。文末提供註釋詳盡的Tensorflow程式碼實現。

邏輯斯第函式

邏輯斯第迴歸(Logistic Regression)起源於對生物學中種群數量的演變的建模。設種群數量為P,環境能承載的最大人口數量為K,單個生物的繁殖率為常數r,則種群的增長率

(1)Pt=rP(1PK)

這個微分方程的解為

(2)P(t)=P(0)exp(rt)1+P(0)(exp(rt)1)/K

上式也就是邏輯斯第函式的來源,它對生物種群數量變化擬合效果較好。這個公式可以形式化為

(3)F(t)=11+exp((tμ)/s)
其中μ,s為常數引數。下圖展示了邏輯斯第函式的形態:

這裡寫圖片描述
邏輯斯第函式的形態 (圖片來自維基百科)

二分類——邏輯斯第迴歸

邏輯斯第迴歸本是用於解決二分類問題,之所以稱之為迴歸,是因為它解決問題的方法是對樣本對應的概率值直接建模,而這又是一個迴歸問題。

如果向量樣本

xRm只可能屬於兩個類別y{0,1}。邏輯斯蒂迴歸假設樣本(x,y)滿足這樣的概率分佈:

(4)P(y=1|x)=exp(wTx+b)1+exp(wTx+b)
從而 (5)P(y=0|x)=11+exp(wTx+b)

其中wRm為待定引數向量。不難發現,式(5)與式(3)具有一致的形式。從某種程度上說,邏輯斯第迴歸是把樣本向量x通過與向量引數w的內積服從的概率分佈,對映到自然界中生物種群數量增長的分佈上。

建好了概率模型之後,我們還需要建立目標函式求解模型引數

w,b。記hw(x)=P(Y=1|x),訓練樣本資料為(xi,yi),根據極大似然思想,似然函式為

(6)maxw,bihw(xi)yi(1hw