機器學習(八) 多項式迴歸與模型泛化(下)
阿新 • • 發佈:2019-01-04
六、驗證資料集與交叉驗證
七、偏差方差平衡
偏差方差權衡 Bias Variance Trade off
偏差 Bias
導致偏差的主要原因:
對問題本身的假設不正確!
如:非線性資料使用線性迴歸
欠擬合 underfitting
方差 Variance
資料的一點點擾動都會較大的影響模型
通常原因,使用的模型太複雜
如高階多項式迴歸。
過擬合 overfitting
偏差和方差
有一些演算法天生高方差,KNN
非引數學習通常都是高方差演算法。因為不對資料進行任何假設。
有一些演算法天生是高偏差演算法。如線性迴歸。
引數學習通常都是高偏差演算法。因為對資料具有極強的假設。
大多數演算法具有相應的引數, 可以調整偏差和方差。
如 KNN中的 K
如線性迴歸中使用多項式迴歸
偏差和方差通常是矛盾的。
降低偏差,會提高方差。
降低方差,會提高偏差。
八、模型泛化與嶺迴歸
九、LASSO Regularization
十、L1, L2和彈性網路
我寫的文章只是我自己對bobo老師講課內容的理解和整理,也只是我自己的弊見。bobo老師的課 是慕課網出品的。歡迎大家一起學習。
我寫的文章只是我自己對bobo老師講課內容的理解和整理,也只是我自己的弊見。bobo老師的課 是慕課網出品的。歡迎大家一起學習。
我寫的文章只是我自己對bobo老師講課內容的理解和整理,也只是我自己的弊見。bobo老師的課 是慕課網出品的。歡迎大家一起學習。