1. 程式人生 > >線性回歸和 邏輯回歸 的思考(參考斯坦福 吳恩達的課程)

線性回歸和 邏輯回歸 的思考(參考斯坦福 吳恩達的課程)

span src ima 線性 努力 最大似然法 最大似然 style res

還是不習慣這種公式的編寫,還是直接上word。。。。

技術分享圖片

技術分享圖片

技術分享圖片

技術分享圖片

對上面的(7)式取log後並最大化即可得到最小二乘法,即 argmaxθ J(θ)

思考二:線性回歸到邏輯回歸的轉變:

1) 引入邏輯回歸,假設用線性回歸來做分類問題,設為二分類,即y取0或1。

則會出現如下的情況:

技術分享圖片

技術分享圖片

這種情況下是能很好的分類的,但若數據是如下所示呢:

技術分享圖片

技術分享圖片

則分類很不好。

技術分享圖片

技術分享圖片

思考三:邏輯回歸損失函數的得來(解釋):

答,也是通過最大似然得到的。y的取值為0,1;則認為這是一個伯努力的分布,也稱為兩點的分布,則公式表示如下:

技術分享圖片

技術分享圖片

註:公式(27)最後一行的公式寫錯了,少了個log,正確公式應是如下:

  技術分享圖片

四:邏輯函數(Logistic function)或者是S形函數(Sigmoid function) 的由來:

技術分享圖片

總結:

1)算法是一個很有邏輯(嚴謹)的一門學科,都有因果和解釋。

2)還有最大似然 法是神器,許多算法的推導都是從其開始的,若 最大似然法 加上 貝葉斯公式就更是神器啦!

參考: 線性回歸、logistic回歸、廣義線性模型——斯坦福CS229機器學習個人總結:

    https://blog.csdn.net/sinat_37965706/article/details/69204397

    Stanford機器學習---第三講. 邏輯回歸和過擬合問題的解決 logistic Regression & Regularization:

    https://blog.csdn.net/sinat_37965706/article/details/69204397

線性回歸和 邏輯回歸 的思考(參考斯坦福 吳恩達的課程)