1. 程式人生 > >機器學習(八) 多項式迴歸與模型泛化(下)

機器學習(八) 多項式迴歸與模型泛化(下)

六、驗證資料集與交叉驗證

七、偏差方差平衡

偏差方差權衡 Bias Variance Trade off

偏差 Bias

導致偏差的主要原因:

對問題本身的假設不正確!

如:非線性資料使用線性迴歸

欠擬合 underfitting

方差 Variance

資料的一點點擾動都會較大的影響模型

通常原因,使用的模型太複雜

如高階多項式迴歸。

過擬合 overfitting

偏差和方差

有一些演算法天生高方差,KNN

非引數學習通常都是高方差演算法。因為不對資料進行任何假設。

有一些演算法天生是高偏差演算法。如線性迴歸。

引數學習通常都是高偏差演算法。因為對資料具有極強的假設。

 

大多數演算法具有相應的引數, 可以調整偏差和方差。

如 KNN中的 K

如線性迴歸中使用多項式迴歸

 

偏差和方差通常是矛盾的。

降低偏差,會提高方差。

降低方差,會提高偏差。

八、模型泛化與嶺迴歸

 

 

九、LASSO  Regularization

 

 

 

 

 

 

 

 

十、L1, L2和彈性網路

 

 

 

 

我寫的文章只是我自己對bobo老師講課內容的理解和整理,也只是我自己的弊見。bobo老師的課 是慕課網出品的。歡迎大家一起學習。

 我寫的文章只是我自己對bobo老師講課內容的理解和整理,也只是我自己的弊見。bobo老師的課 是慕課網出品的。歡迎大家一起學習。

 我寫的文章只是我自己對bobo老師講課內容的理解和整理,也只是我自己的弊見。bobo老師的課 是慕課網出品的。歡迎大家一起學習。