1. 程式人生 > >吳恩達機器學習(第八章)---正則化

吳恩達機器學習(第八章)---正則化

在我們擬合的時候,根據我們選擇函式的不同可能會出現欠擬合,擬合程度較好,過擬合

1.欠擬合和過擬合

     

 欠擬合,上面第一張圖就是欠擬合情況,欠擬合表現為所選的函式沒有很好的擬合所給的資料,從影象上看就是很多資料都不在函式上,偏差大。

過擬合,上面第二張圖就是過擬合,過擬合表現為很好的擬合了所給的資料,幾乎都在函式上,但是所選函式僅僅是對已給定的資料表現為很好的擬合,對於之後對新資料的預測沒有幫助,預測結果很有可能是錯誤的,方差大。

第三張圖就是比較好的擬合。

2.解決方式

1)解決欠擬合

解決欠擬合可以通過增加特徵

2)解決過擬合---正則化

新增正則化項 。

線性迴歸:

線性迴歸的時候,在後面新增\lambda\sum_{j=1}^{m}{\theta_j^2}(j與i不同,i表示從第一個資料開始算起,最小值是1;而θ是從θ_0開始,所以j的最小值是0。這裡從j=1開始是因為,θ_0對應的是x_0,它是一個常數1,所以不需要正則化)

梯度下降公式修改:\theta_j=\theta_j-\alpha\frac{1}{m}\sum_{i=1}^{m}{(h(x^i)-y^i)x^i}+\alpha\lambda\frac{1}{m}\theta_j

邏輯迴歸也是一樣的,只是h(x)所代表的式子不一樣。