1. 程式人生 > >scikit-learn與資料預處理

scikit-learn與資料預處理

 

1 引言¶

預處理操作是機器學習整個週期中必不可少的一個過程,也是最能快速改善模型效能的一個過程,往往稍微轉換一下特徵屬性的形態,就能得到效能的極大提升。當然,資料預處理絕對也是耗時最長的一個過程,這一過程不僅要求洞悉整個資料集結構分佈,還要探查每一個特徵屬性細節情況,並作出應對處理,使資料以最適合的狀態傳輸給模型。
針對預處理操作,sklearn中提供了許多模組工具,靈活使用工具可以讓資料預處理輕鬆很多。
本文簡要介紹資料預處理中的一些主要方法,並結合sklearn中提供的模組進行實踐。

2 無量綱化¶

對於大部分機器學習任務而言,對原始資料進行無量綱化是是建模前的必不可少的一個環節。通過無量綱化,可以消除量綱不一致對模型造成的不良影響。標準化和歸一化是最為常見的兩種無量綱化方法,下面分別展開介紹這兩種方法。

2.1 標準化¶

標準化對資料的分佈的進行轉換,使其符合某種分佈(一般指正態分佈)的一種特徵變換。一般而言,標準化都是指通過z-score的方法將資料轉換為服從均值為0,標準差為1的標準正態分佈資料,通過如下公式進行轉換: $$x' = \frac{{x - \mu }}{\sigma }$$ 式中,$\mu$和$\sigma$是指$x$所在特徵屬性集的均值和標準差。

(1)sklearn.preprocessing.scale方法實現標準化

In [1]:
from sklearn import preprocessing
import numpy as np
In [2]:
X_train = np.array([[ 1., -1.,  2.],
                    [ 2.,  0.,  0.],
                    [ 0.,  1., -1.]])
X_scaled = preprocessing.scale(X_train)
 

再次檢視X_train各列,我們會發現,均值和方差都已經標準化:

In [4]:
X_train.mean(axis=0)
Out[4]:
array([1.        , 0.        , 0.33333333])
In [5]:
X_scaled.std(axis=0)
Out[5]:
array([1., 1., 1.])
 

(2)sklearn.preprocessing.StandardScaler類實現歸一化

除了scale方法外,在sklearn.preprocessing模組中還提供有一個專門的類用於實現標準化:StandardScaler,StandardScaler類會自動計算例項化類時傳入的訓練集的均值、標準差,並將這些資訊保留,這也就意味著,對訓練集的標準化方式可以複用,例如對測試集和預測樣本進行同樣的標準化。所以,一般來說,更加建議使用StandardScaler類來實現標準化。

In [9]:
# 傳入一個訓練集,例項化StandarScaler類
scaler = preprocessing.StandardScaler()
In [34]:
scaler.fit(X_train)  # 收集標準化資訊,均值,標準差
Out[34]:
StandardScaler(copy=True, with_mean=True, with_std=True)
In [35]:
scaler.mean_   # 檢視均值
Out[35]:
array([1.        , 0.        , 0.33333333])
In [36]:
scaler.scale_  # 檢視標準差
Out[36]:
array([0.81649658, 0.81649658, 1.24721913])
 

建立StandarScaler類例項後,需要通過類中的transform方法對X-train進行標準化:

In [16]:
scaler.transform(X_train)
Out[16]:
array([[ 0.        , -1.22474487,  1.33630621],
       [ 1.22474487,  0.        , -0.26726124],
       [-1.22474487,  1.22474487, -1.06904497]])
 

StandardScaler類中還提供有一個fit_transform方法,這個方法合併了fit和transform兩個方法的功能,同時根據傳入的資料集收集標準化資訊,並將標準化方案應用於傳入的訓練集:

In [26]:
scaler = preprocessing.StandardScaler()
In [29]:
x_train = scaler.fit_transform(X_train)
In [30]:
x_train
Out[30]:
array([[ 0.        , -1.22474487,  1.33630621],
       [ 1.22474487,  0.        , -0.26726124],
       [-1.22474487,  1.22474487, -1.06904497]])
 

假設現在有一個測試樣本,那麼,也可以通過transform方法將標準化方案應用於測試樣本上:

In [17]:
X_test = [[-1., 1., 0.]]
scaler.transform(X_test)
Out[17]:
array([[-2.44948974,  1.22474487, -0.26726124]])
 

2.2 歸一化¶

歸一化是指對資料的數值範圍進行特定縮放,但不改變其資料分佈的一種線性特徵變換。大多數場景下,歸一化都是將資料縮放到[0,1]區間範圍內,計算公式如下: $$x' = \frac{{x - \min }}{{\max - \min }}$$ 式中,$min$和$max$是$x$所屬特徵集合的最小值和最大值。可見,這種歸一化方式的最終結果只受極值的影響。

(1)sklearn.preprocessing.minmax_scale方法實現歸一化。

In [46]:
X_train = np.array([[ 1., -1.,  2.],
                    [ 2.,  0.,  0.],
                    [ 0.,  1., -1.]])
X_train = preprocessing.minmax_scale(X_train)
X_train
Out[46]:
array([[0.5       , 0.        , 1.        ],
       [1.        , 0.5       , 0.33333333],
       [0.        , 1.        , 0.        ]])
 

(2)sklearn.preprocessing.MinMaxScaler類實現歸一化。

In [37]:
X_train = np.array([[ 1., -1.,  2.],
                    [ 2.,  0.,  0.],
                    [ 0.,  1., -1.]])

min_max_scaler = preprocessing.MinMaxScaler()
X_train_minmax = min_max_scaler.fit_transform(X_train)
X_train_minmax
Out[37]:
array([[0.5       , 0.        , 1.        ],
       [1.        , 0.5       , 0.33333333],
       [0.        , 1.        , 0.        ]])
 

使用訓練好的min_max_scaler對新的測試樣本進行歸一化:

In [38]:
X_test = np.array([[-3., -1.,  4.]])
X_test_minmax = min_max_scaler.transform(X_test)
X_test_minmax
Out[38]:
array([[-1.5       ,  0.        ,  1.66666667]])
 

我們知道,歸一化是將特徵屬性值縮放到[0,1]範圍,但在某些特殊的場景下,我們需要將特徵屬性縮放到其他範圍,MinMaxScaler類通過feature_range引數也提供了這一功能,feature_range引數接受一個元組作為引數,預設值為(0,1)。

In [40]:
X_train = np.array([[ 1., -1.,  2.],
                    [ 2.,  0.,  0.],
                    [ 0.,  1., -1.]])

min_max_scaler = preprocessing.MinMaxScaler(feature_range=(10,20))
X_train_minmax = min_max_scaler.fit_transform(X_train)
X_train_minmax
Out[40]:
array([[15.        , 10.        , 20.        ],
       [20.        , 15.        , 13.33333333],
       [10.        , 20.        , 10.        ]])
 

(3)sklearn.preprocessing.MaxAbsScaler類實現歸一化

MaxAbsScaler是專門為稀疏資料做歸一化設計的,通過特徵值除以整個特徵集合最大絕對值實現,最終將資料投影到[-1, 1]範圍內,對原來取值為0的資料並不會做出變換,所以不會影響資料的稀疏性。

 

最後來總結一下標準化和歸一化。
標準化是依照特徵矩陣的列處理資料,其通過求z-score的方法,轉換為標準正態分佈,和整體樣本分佈相關,每個樣本點都能對標準化產生影響,而歸一化是將樣本的特徵值轉換到同一量綱下把資料對映到指定區間內,僅由變數的極值決定,所以對異常值較為敏感。標準化和歸一化都是一種線性變換,都是對向量x按照比例壓縮再進行平移。無論是標準化還是歸一化,都可以將資料無量綱化,消除不同量綱對結果的影響,同時都可以加過模型的收斂速度。 標準化與歸一化之間如何選擇呢?
大多數機器學習演算法中,會選擇StandardScaler來進行特徵縮放,因為MinMaxScaler對異常值非常敏感。在PCA,聚類,邏輯迴歸,支援向量機,神經網路這些演算法中,StandardScaler往往是最好的選擇。
MinMaxScaler在不涉及距離度量、梯度、協方差計算以及資料需要被壓縮到特定區間時使用廣泛,比如數字影象處理中量化畫素強度時,都會使用MinMaxScaler將資料壓縮於[0,1]區間之中。若是歸一化時需要保留資料的稀疏性,則可以使用MaxAbscaler歸一化。 在大多數情況下,建議先試試看StandardScaler,效果不好換MinMaxScaler。

另外,這裡再提一下正則化(Normalization),很多資料把正則化與歸一化、標準化放到一起討論,雖然正則化也是資料預處理方法的一種,但我並不認為正則化是無量綱化方法。正則化通過某個特徵值除以整個樣本所有特徵值的範數計算,使得整個樣本範數為1,通常在文字分類和聚類中使用較多。sklearn中提供preprocessing.normalize方法和preprocessing.Normalizer類實現:

In [49]:
X_train = np.array([[ 1., -2.,  2.],
                    [ 2.,  0.,  0.],
                    [ 0.,  1., -1.]])

max_abs_scaler = preprocessing.MaxAbsScaler()
X_train_max_abs = max_abs_scaler.fit_transform(X_train)
X_train_max_abs
Out[49]:
array([[ 0.5, -1. ,  1. ],
       [ 1. ,  0. ,  0. ],
       [ 0. ,  0.5, -0.5]])
In [53]:
X_train = np.array([[ 1., -1.,  2.],
                    [ 2.,  0.,  0.],
                    [ 0.,  1., -1.]])

nor = preprocessing.Normalizer()
X_train_nor = nor.fit_transform(X_train)
X_train_nor
Out[53]:
array([[ 0.40824829, -0.40824829,  0.81649658],
       [ 1.        ,  0.        ,  0.        ],
       [ 0.        ,  0.70710678, -0.70710678]])
 

3 缺失值處理¶

由於各種各樣的原因,我們所面對的資料經常是有所缺失的,然而sklearn中實現的各個演算法都假設資料沒有缺失為前提,如果直接用缺失資料跑演算法影響最終結果不說,也容易產生各種異常,所以在資料預處理階段,對缺失值進行處理是很有必要的。對於缺失值處理,直接刪除包含缺失值的特徵屬性或者樣本是最簡單的方法,但是這種方法卻也將其他部分資訊拋棄,在很多情況下,特別是資料樣本不多、資料價值大時,未免得不償失。在sklearn中,提供了諸多其他處理缺失值的方案,例如以均值、中位數、眾數亦或者是指定值填充缺失值等,這些方案都在sklearn.impute模組中提供的SimpleImputer類中實現,SimpleImputer類引數如下:

In [99]:
import numpy as np
from sklearn.impute import SimpleImputer
imp = SimpleImputer(missing_values=np.nan, strategy='mean')  # 指定缺失值為nan,以均值填充
imp.fit([[1, 2], [np.nan, 3], [7, 6]])
X = [[np.nan, 2], [6, np.nan], [7, 6]]
imp.transform(X)
Out[99]:
array([[4.        , 2.        ],
       [6.        , 3.66666667],
       [7.        , 6.        ]])
In [107]:
imp = SimpleImputer(missing_values=0, strategy='constant', fill_value=1)  # 指定缺失值為0,指定以常數1填充
imp.fit([[5, 2], [4, 0], [7, 6]])
X = [[0, 2], [6, 0], [7, 6]]
imp.transform(X)
Out[107]:
array([[1, 2],
       [6, 1],
       [7, 6]])
 

4 離散型特徵屬性處理¶

很多時候,我們所要處理的特徵屬性未必是連續型的,也可能是離散型,以衣服為例,款式(男款、女款),大小(X、XL、XXL),顏色(綠色、紅色、白色),都是離散型特徵屬性。對於這類離散型特徵屬性,需要編碼之後才能用來建模。離散型特徵屬性值可以分為兩種:

(1)數字編碼
整數編碼是指對離散型屬性以整數來標識,例如色澤這一特徵中,以整數“0”標識“男款”,整數“1”標識“女款”。sklearn中提供了LabelEncoder和OrdinalEncoder兩個類用以實現對資料的不同取值以數字標識。LabelEncoder和OrdinalEncoder會自動根據提供的訓練資料進行統計,分別對每個特徵屬性從0開始編碼,不同的是,LabelEncoder類一次只能對一個一維陣列(一個特徵屬性)編碼,而OrdinalEncoder能同時對各個特徵屬性編碼:

In [89]:
enc = preprocessing.LabelEncoder()  # 只能接受一個一維陣列
X = ['紅色', '白色', '綠色']
enc.fit(X)
X_ = enc.transform(X)
X_
Out[89]:
array([1, 0, 2])
In [83]:
enc = preprocessing.OrdinalEncoder()  # 可以同時多通過特徵屬性編碼
X = [['女款', 'X', '綠色'], ['女款', 'XL', '紅色'], ['男款', 'XXL', '白色']]
enc.fit(X)
X_ = enc.transform(X)
X_
Out[83]:
array([[0., 0., 2.],
       [0., 1., 1.],
       [1., 2., 0.]])
In [84]:
enc.inverse_transform(X_)  # 可以使用inverse_transform逆轉
Out[84]:
array([['女款', 'X', '綠色'],
       ['女款', 'XL', '紅色'],
       ['男款', 'XXL', '白色']], dtype=object)
 

但在很多模型中,使用整數編碼並不合理,特別是在聚類這類需要計算空間距離的演算法模型。仔細觀察上面編碼,顏色這一屬性有三種取值(綠色、紅色、白色),分別以(2,1,0)表示,顏色之間是沒有大小意義的,但以三個數字表示後,就賦予了三種屬性值大小上的意義,且在演算法計算距離時,綠色(2)到白色(0)的距離比紅色(1)到白色(0)大,這是不合理的。
對於這類取值沒有大小意義的離散型特徵屬性,有一種更加合適的編碼方式:獨熱編碼。

(2)獨熱編碼

獨熱編碼即 One-Hot 編碼,其方法是使用N位狀態暫存器來對N個狀態進行編碼,每個狀態都由他獨立的暫存器位,並且在任意時候,其中只有一位有效。sklearn中提供了OneHotEncoder類用以實現對資料的獨熱編碼:

In [74]:
enc = preprocessing.OneHotEncoder()
X = [['女款', 'X', '綠色'], ['女款', 'XL', '紅色'], ['男款', 'XXL', '白色']]
enc.fit(X)
enc.transform([['男款', 'XL', '綠色']]).toarray()
Out[74]:
array([[0., 1., 0., 1., 0., 0., 0., 1.]])
 

在上述輸出結果中,特徵屬性有多少種取值經過獨熱編碼後就擴充套件為多少個維度,以款式為例,經過獨熱編碼後,擴充套件為兩個維度,第一維中1表示是女款,0表示非女款。
在例項化OneHotEncoder類時,可以通過categories引數指定各特徵屬性的所有類別,這樣即使存在訓練資料中沒有出現的類別,在後續出現時也能正確編碼:

In [76]:
style = ['女款', '男款']
size = [ 'X','XL','XXL']
color = ['綠色','紅色','白色']
enc = preprocessing.OneHotEncoder(categories=[style, size, color])
X = [['女款', 'X', '綠色'], ['女款', 'XL', '紅色']]
enc.fit(X)
enc.transform(X).toarray()
Out[76]:
array([[1., 0., 1., 0., 0., 1., 0., 0.],
       [1., 0., 0., 1., 0., 0., 1., 0.]])
In [78]:
enc.transform([['男款', 'XXL', '白色']]).toarray()  # 男款,XXL,白色三個屬性值均為在X中出現,但是可以正確編碼
Out[78]:
array([[0., 1., 0., 0., 1., 0., 0., 1.]])
 

建立好OneHotEncoder類例項並通過訓練資料後,就可以對後續的資料進行獨熱編碼,但是,有時候卻不可避免地出現categories和訓練資料集中都未出現過的取值,這時候繼續編碼就會丟擲異常。為了防止這一情況發生,我們可以在建立OneHotEncoder例項時,傳入引數handle_unknown='ignore',這樣的話,如果出現某一特徵屬性值未在categories和訓練資料集中出現過,通過熱獨編碼時,該特徵屬性多對應的維度都會以0來填充。

In [82]:
style = ['女款', '男款']
size = [ 'X','XL']
color = ['綠色','紅色']
enc = preprocessing.OneHotEncoder(categories=[style, size, color],handle_unknown='ignore')
X = [['女款', 'X', '綠色'], ['女款', 'XL', '紅色']]
enc.fit(X)
enc.transform([['男款', 'XXL', '白色']]).toarray()  # XXL, 白色在categories和X中都為出現過
Out[82]:
array([[0., 1., 0., 0., 0., 0.]])
 

獨熱編碼解決了離散型屬性難以有效刻畫的問,在一定程度上也起到了擴充特徵的作用,它的值只有0和1,不同的型別儲存在垂直的空間。當類別的數量很多時,特徵空間會變得非常大。在這種情況下,一般可以用PCA來減少維度。而且one hot encoding+PCA這種組合在實際中也非常有用。

5 連續型特徵屬性離散化¶

有時候,將連續型特徵屬性離散化能夠顯著提高模型的表現力。連續型特徵屬性離散化包括二值化和分段等方法。

(1)二值化

二值化是指通過一個閾值對屬性值進行劃分,當小於這個閾值時,將值對映為0,大於閾值時對映為1。二值化是對文字計數資料的常見操作,分析人員可以決定僅考慮某種現象的存在與否。它還可以用作考慮布林隨機變數的估計器的預處理步驟(例如,使用貝葉斯設定中的伯努利分佈建模)。
sklearn中提供了Binarizer實現二值化,預設閾值為0,也就是將非正數對映為0,將正數對映為1。也可以在例項化時通過引數threshold,設定其他閾值。

In [90]:
X = [[ 1., -1.,  2.],
     [ 2.,  -4.,  0.],
     [ 3.,  2., -1.]]
binarizer = preprocessing.Binarizer().fit(X)
binarizer
Out[90]:
Binarizer(copy=True, threshold=0.0)
In [91]:
binarizer.transform(X)
Out[91]:
array([[1., 0., 1.],
       [1., 0., 0.],
       [1., 1., 0.]])
In [92]:
binarizer = preprocessing.Binarizer(threshold=1.5).fit(X)
binarizer.transform(X)
Out[92]:
array([[0., 0., 1.],
       [1., 0., 0.],
       [1., 1., 0.]])
 

(2)分段

二值化只能將資料對映為兩個值,分段可以對資料進行排序後分為多個部分然後進行編碼。在sklearn中,分段操作通過KBinsDiscretizer類進行。KBinsDiscretizer類有三個重要引數,必須瞭解一下:

相關推薦

scikit-learn資料處理

  1 引言¶ 預處理操作是機器學習整個週期中必不可少的一個過程,也是最能快速改善模型效能的一個過程,往往稍微轉換一下特徵屬性的形態,就能得到效能的極大提升。當然,資料預處理絕對也是耗時最長的一個過程,這一過程不僅要求洞悉整個資料集結構

《深度學習網路訓練--第一講》資料採集資料處理

經過專案的實踐,我感受到要想訓練出一個性能優良的模型網路,資料採集與預處理是多麼的艱難與重要。 資料的採集 資料的採集是一個費時費力的過程。對於人臉資料來說,針對產品的應用場景,需要採集不同環境變數的人臉影象。對於我的經驗來說,公司想要做一個人臉識別的A

CNN筆記(1)---資料擴充資料處理

1.Data Augmentation 1.1 簡單的資料擴充 影象水平翻轉 隨機扣取 尺度變換和旋轉 色彩抖動:在RGB顏色空間對原有RGB色彩分佈進行輕微擾動 也可以在HSV空間隨機改變影象原有的飽和度和明度

資料環境下整合R語言的資料探勘平臺 之介紹、資料上傳資料處理

這個整合R語言的資料探勘平臺是當時為中國軟體杯比賽做的一個系統,由於時間太緊,當時開發只用了一週的時間,不過前前後後用了大半年來學習和熟悉R語言,深深感覺到R語言真的是資料分析的一個利器,內建的各種分析包大大簡化了資料分析的過程,只需要傳參呼叫即可,再也不需要讀

【Python資料分析】1rd-資料探索資料處理

《Python資料分析與挖掘實戰》讀書筆記之資料探索與資料預處理 一、資料探索 Python中用於資料探索的庫主要是Pandas(資料分析)和Matplotlib(資料視覺化) 資料分析內容 資料質量分析 缺失值分析 異常值分析

scikit-learn資料處理fit_transform()transform()的區別(轉)

二者的功能都是對資料進行某種統一處理(比如標準化~N(0,1),將資料縮放(對映)到某個固定區間,歸一化,正則化等)fit_transform(partData)對部分資料先擬合fit,找到該part

使用scikit-learn進行初步的資料處理

對於機器學習來說,sklearn具有非常豐富且方便的演算法模型庫,現在我們將使用sklearn中的preprocessing庫來對資料進行初步的預處理。 1.Z-Score標準化(儘量使均值為0,方差為1) 標準化即將資料按比例進行縮放,使其落入一個限定

scikit-learn資料處理

Python下的機器學習工具scikit-learn(-資料預處理) (1)資料標準化(Standardization or Mean Removal and Variance Scaling) 進行標準化縮放的資料均值為0,具有單位方差。

Next generation sequencing (NGS)二代測序資料處理分析

Next generation sequencing (NGS)二代測序資料預處理與分析 By  zilhua | 2014 年 3 月 12 日 0 Comment 常使用的工具列表 質量控制Quality Co

資料處理程式碼分享——機器學習資料探勘

資料預處理分為6步: 第1步:匯入NumPy和Pandas庫。NumPy和Pandas是每次都要匯入的庫,其中Numpy包含了數學計算函式,Pnadas是一個用於匯入和管理資料集(Data Sets)的類庫。 第2步:匯入資料集。資料集一般都是.csv格式,csv

Python商品資料處理K-Means聚類視覺化分析

資料提取 在我之前的文章Scrapy自動爬取商品資料爬蟲裡實現了爬蟲爬取商品網站搜尋關鍵詞為python的書籍商品,爬取到了60多頁網頁的1260本python書籍商品的書名,價格,評論數和商品連結,並將所有商品資料儲存到本地的.json檔案中。資料儲存格式如下:

3-6 用 Pandas 進行資料處理資料清洗視覺化(版本:py3)

主要內容: 格式轉換 缺失資料 異常資料 資料標準化操作 格式轉換 如Python記錄時間的方式,不能夠直接實現減運算,就需要進行轉換 pandas.to_datetime 缺失資料 忽略缺失資料 直接標記 利用平均值、最常出現值進行填充 異常資料 處

資料分析挖掘之資料處理

目錄 資料整合 簡單變換 資料整合 #資料整合 import numpy a=numpy.array([[1,5,6],[9,4,3]]) b=numpy.array([[6,36,7],[2,3,39]]) c=numpy.conca

CS231n 卷積神經網路計算機視覺 6 資料處理 權重初始化 規則化 損失函式 等常用方法總結

1 資料處理 首先註明我們要處理的資料是矩陣X,其shape為[N x D] (N =number of data, D =dimensionality). 1.1 Mean subtraction 去均值 去均值是一種常用的資料處理方式.它是將各個特徵值減去其均

Scikit-Learn TensorFlow 機器學習實用指南學習筆記 4 —— 資料探索視覺化、發現規律

紅色石頭的個人網站:redstonewill.com 目前為止,我們已經對資料有了初步的認識,大體上明白了我們要處理的資料型別。現在,我們將進入更深入的研究。 首先,確保已經劃分了測試集並放置一邊,我們只會對訓練集進行操作。另外,如果訓練集很大,可以從中取樣一些作

Scikit-Learn TensorFlow 機器學習實用指南學習筆記 3 —— 資料獲取清洗

紅色石頭的個人網站:redstonewill.com 本章將完整地介紹一個端對端(End-to-End)機器學習專案。假如你是某個房地產公司剛僱傭的資料科學家,你所要做的事情主要分成以下幾個步驟: 1.整體規劃。 2.獲取資料。 3.發現、視覺化資料,增加

資料處理資料特徵選定

  特徵工程是建立高準確度機器學習演算法的基礎,使用正確的特徵來構建正確的模型,以完成既定的任務。資料預處理需要根據資料本身的特性進行,有不同的格式和不同的要求,有缺失值要填,有無效資料的要剔除,有冗餘維的要選,這些步驟都和資料本身的特性緊密相關。資料預處理大致

Python資料探勘機器學習_通訊信用風險評估實戰(2)——資料處理

系列目錄: 資料說明 通過對讀取資料的實踐,下面是資料集檔案對應讀取後的DataFrame說明。 資料檔案 DataFrame DataTech_Credit_Train_Communication1.txt train

Nematus(一)資料處理超引數配置

神經機器翻譯工具Nematus 1、資料預處理 ./preprocess.sh 主要流程包括: tokenization(符號化處理) This means that s

Python:sklearn資料處理中fit(),transform()fit_transform()的區別

1 概述 注意這是資料預處理中的方法: Fit(): Method calculates the parameters μ and σ and saves them as internal objects. 解釋:簡單來說,就是求得訓練集X的均值啊,方差啊,最大值啊,最小