線性回歸和 邏輯回歸 的思考(參考斯坦福 吳恩達的課程)
阿新 • • 發佈:2018-08-12
span src ima 線性 努力 最大似然法 最大似然 style res
還是不習慣這種公式的編寫,還是直接上word。。。。
對上面的(7)式取log後並最大化即可得到最小二乘法,即 argmaxθ J(θ)
思考二:線性回歸到邏輯回歸的轉變:
1) 引入邏輯回歸,假設用線性回歸來做分類問題,設為二分類,即y取0或1。
則會出現如下的情況:
這種情況下是能很好的分類的,但若數據是如下所示呢:
則分類很不好。
思考三:邏輯回歸損失函數的得來(解釋):
答,也是通過最大似然得到的。y的取值為0,1;則認為這是一個伯努力的分布,也稱為兩點的分布,則公式表示如下:
註:公式(27)最後一行的公式寫錯了,少了個log,正確公式應是如下:
四:邏輯函數(Logistic function)或者是S形函數(Sigmoid function) 的由來:
總結:
1)算法是一個很有邏輯(嚴謹)的一門學科,都有因果和解釋。
2)還有最大似然 法是神器,許多算法的推導都是從其開始的,若 最大似然法 加上 貝葉斯公式就更是神器啦!
參考: 線性回歸、logistic回歸、廣義線性模型——斯坦福CS229機器學習個人總結:
https://blog.csdn.net/sinat_37965706/article/details/69204397
Stanford機器學習---第三講. 邏輯回歸和過擬合問題的解決 logistic Regression & Regularization:
https://blog.csdn.net/sinat_37965706/article/details/69204397
線性回歸和 邏輯回歸 的思考(參考斯坦福 吳恩達的課程)