機器學習第三週(下)
阿新 • • 發佈:2018-11-15
擬合
1、擬合程度
- 對於線性迴歸:
- 對於邏輯迴歸:
左圖欠擬合,高偏差。中圖正合適。右圖過擬合,高方差。
1.1、過擬合
1.1.1、原因
- 由上面的右圖可知,特徵太多(線性迴歸中四個特徵: 、 、 、 ;邏輯迴歸中特徵更多,不贅述),雖然能夠貼合訓練集中的樣本,但是無法“泛化”(也即無法將模型應用到新的樣本中)。
- 樣本數量不夠
1.1.2、理論解決方法
- 減少特徵數量:手動選取特徵或者採用模型選擇演算法(之後的博文會提到)。
- 減小模型引數 ,如:正則化
1.1.3、實際解決方法之一:正則化
- 主要思想:減小模型引數
- 具體操作:在代價函式中新增懲罰項
如果假設函式如下所示:
則代價函式可新增懲罰項 和 :
這樣,在求目標函式(使代價函式最小)時,會要求 和 的值變小,因為這兩個值對代價函式的值有一定影響,一定程度上弱化了與這兩個模型引數對應的特徵( 和 )在假設函式中的作用。
1.1.3.1、正則化線性迴歸
- 懲罰項為: ,其中, 為正規化引數,如果設定過大,則各模型引數過於接近零(除了 ),相當於假設函式 。
PS: 注意懲罰項的累加符號是從 開始的,也就是說從 開始,對 沒有影響,因為 並沒有對應的特徵 。
- 代價函式如下:
- 梯度下降中的偏導數如下: