資料特徵 歸一化/標準化 方法
阿新 • • 發佈:2018-11-16
歸一化/標準化 定義
- 歸一化:就是將訓練集中數值特徵的值縮放到0和1之間。公式如下
- 標準化:就是將訓練集中數值特徵的值縮放成均值為0,方差為1的狀態。公式如下
需要先計算出均值和標準差,下面是標準差的計算公式
μ表示均值,x*表示標準化的表示式
優點
- 加快了梯度下降求最優解的速度。
例子如下,左圖代表沒處理過的資料,最優解的求值可能會比較緩慢,例子如下,左圖代表沒處理過的資料,最優解的求值可能會比較緩慢,而右圖是歸一化後的,明顯收斂速度更快。
- 提升模型精度
例如,在KNN類演算法中。我們需要計算每個點與分類點之間的距離,當我們沒有進行歸一化操作的時候,取值範圍大的特徵佔據主導因素,導致其他特徵的影響極小,這樣會影響到最後的結果。
什麼情況下必須進行標準化/歸一化?
- 當你的損失函式,有L1或者L2懲罰項時,必須使用標準化/歸一化,因為不用正則時,我們的損失函式只是僅僅在度量預測與真實的差距,加上正則後,我們的損失函式除了要度量上面的差距外,還要度量引數值是否足夠小。而引數值的大小程度或者說大小的級別是與特徵的數值範圍相關的。
- Kmeans,KNN一些涉及到距離有關的演算法,或者聚類的話,都是需要先做變數標準化的。
- 呼叫SVM的RBF核心和PCA演算法
怎麼進行標準化/歸一化?
這裡我們引用sklearn中自帶的資料,來進行操作
匯入資料
from sklearn.datasets import load_iris iris = load_iris() iris.data
標準化
from sklearn.preprocessing import StandardScaler
StandardScaler().fit_transform(iris.data)
歸一化
from sklearn.preprocessing import MinMaxScaler
MinMaxScaler().fit_transform(iris.data)
另外,我們要先拆分出test集,不要在整個資料集上做標準化,因為那樣會將test集的資訊引入到訓練集中,這是一個非常容易犯的錯誤!