1. 程式人生 > >Kaggle新手入門之路

Kaggle新手入門之路

data 下標 red 相關 頁面 相同 hist view afr

學完了Coursera上Andrew Ng的Machine Learning後,迫不及待地想去參加一場Kaggle的比賽,卻發現從理論到實踐的轉變實在是太困難了,在此記錄學習過程.

一:安裝Anaconda

教程大多推薦使用Jupyter Notebook來進行數據科學的相關編程,我們通過Anaconda來安裝Jupyter Notebook和需要用到的一些python庫,按照以下方法重新安裝了Anaconda,平臺Win10

Anaconda安裝

二:Jupyter Notebook

參照以下兩篇文章配置好了Jupyter Notebook,學習了相關的基本操作

Jupyter可以做哪些事情

Jupyter Notebook常用快捷鍵

  • 啟動:在cmd或Anaconda Prompt下輸入jupyter notebook
  • 新建:Files頁面右側‘New‘
  • 運行當前cell:Ctrl+Enter
  • 代碼補全:Tab
  • 查看方法文檔:Shift+Tab
  • 復選cell:Shift+上下鍵
  • 刪除cell:雙擊D
  • 撤銷刪除:Z
  • 保存當前Notebook:S
  • 關閉文檔:Home頁面選中文檔後‘Shutdown‘
  • 關閉服務器:終端中按兩次Ctrl+C
  • 顯示matplotlib圖表:%matplotlib inline

三:Numpy

numpy中文教程

官方文檔

  • Numpy是一個用於進行數組運算的庫
  • Numpy中最重要的對象是稱為ndarray的N維數組類型
  • 一般使用如下語句導入:import numpy as np
  • 創建數組:numpy.array(object, dtype = None, copy = True, order = None, subok = False, ndmin = 0)
  • 可以用np.dtype()定義結構體
  • 數組維度:ndarray.shape
  • 數組維數:ndarray.ndim
  • 調整數組維度:ndarray.reshape(shape)
  • 創建未初始化數組:numpy.empty(shape, dtype = float, order = ‘C‘)
  • 創建零數組:numpy.zeros(shape, dtype = float, order = ‘C‘)
  • 創建一數組:numpy.ones(shape, dtype = float, order = ‘C‘)
  • 用現有數據創建數組:numpy.asarray(a, dtype = None, order = None)
  • 按數值範圍創建數組:numpy.arange(start = 0, stop, step = 1, dtype),類似的有linspace()和logspace()
  • 切片:b=a[start:stop:step],可以用...代表剩余維度
  • 整數索引:每個整數數組表示該維度的下標值,b=a[[r1, r2], [c1, c2]]
  • 布爾索引:返回是布爾運算的結果的對象,可以用&或|連接()分隔的條件
  • 在 NumPy 中可以對形狀不相似的數組進行操作,因為它擁有廣播功能,我的理解是,廣播是一種維度的單方向拉伸
  • 數組叠代:numpy.nditer(ndarray)或ndarray.flat
  • 數組長度:len(arr)
  • 訪問第i個元素:一維數組用a[i],多維數組用a.flat[i]
  • 數組轉置:ndarray.T
  • 數組分割:numpy.split(ary, indices_or_sections, axis),第二項的值為整數則表明要創建的等大小的子數組的數量,是一維數組則表明要創建新子數組的點。
  • 追加值:numpy.append(arr, values, axis)
  • 插入值:numpy.insert(arr, idx, values, axis)
  • 刪除值:numpy.delete(arr, values, axis)
  • 去重數組:numpy.unique(arr, return_index, return_inverse, return_counts)
  • 字符串函數:numpy.char類
  • 三角函數:numpy.sin(arr),numpy.cos(arr),numpy.tan(arr)
  • 四舍五入:numpy.around(arr,decimals)
  • 向下取整:numpy.floor(arr)
  • 向上取整:numpy.ceil(arr)
  • 取倒數:numpy.reciprocal(arr),註意對於大於1的整數返回值為0
  • 冪運算:numpy.power(arr,pow),pow可以是一個數,也可以是和arr對應的數組
  • 取余:numpy.mod(a,b),b可以是一個數,也可以是和a對應是數組
  • 最小值:numpy.amin(arr,axis)
  • 最大值:numpy.amax(arr,axis)
  • 數值跨度:numpy.ptp(arr,axis)
  • 算術平均值:numpy.mean(arr,axis)
  • 標準差:numpy.std(arr)
  • 方差:numpy.var(arr)
  • 副本的改變會影響原數組(賦值),視圖的改變不會影響原數組(ndarray.view(),切片,ndarray.copy())
  • 線性代數:numpy.linalg模塊

四:Matplotlib

官方教程

官方教程中文翻譯

matplotlib入門教程

Jupyter Notebook Viewer的matplotlib lecture

建議先看官方教程,通過折線圖熟悉基本操作,然後看入門教程第三章到第六章掌握各種圖的畫法

  • 一般使用如下語句導入:import matplotlib.pyplot as plt
  • 繪圖:plt.plot(x,y),可選color,marker,label等參數,默認的x坐標為從0開始且與y長度相同的數組,x坐標與y坐標一般使用numpy數組,也可以用列表
  • 設置線條:plt.setp()
  • 軸名稱:plt.xlable(‘str‘),plt.ylable(‘str)
  • 添加文本:plt.txt(xpos,ypos,‘str‘)
  • 添加格子:plt.grid(True)
  • 展示圖片:plt.show()
  • 圖題:plt.title(‘str‘)
  • 圖示:plt.legend(),結合plot()中的label參數使用
  • 獲取子圖:plt.sublot(nrows,ncols,index)或plt.subplot2grid((nrows,ncols),(rows,cols)),可選colspan和rowspan屬性
  • 創建畫布:plt.figure()
  • 數學表達式:TeX表達式
  • 非線性軸:plt.xscale(‘scale‘),plt.yscale(‘scale‘),可選參數log,symlog,logit等
  • 填充顏色:plt.fill(x,y)和plt.fill_between(x,y,where=...)
  • 條形圖:plt.bar(x,y),註意多個條形圖的默認顏色相同,應選擇不同的顏色方便區分
  • 直方圖:plt.hist(x,bins),直方圖是一種顯示區段內數據數量的圖像,x為數據,bins為數據區段,可選histtype,rwidth等屬性
  • 散點圖:plt.scatter(x,y),散點圖通常用於尋找相關性或分組,可選color,marker,label等屬性
  • 堆疊圖:plt.stackplot(x,y1,y2,y3...),堆疊圖用於顯示部分對整體隨時間的關系,通過利用plt.plot([],[],color,label)添加與堆疊圖中顏色相同的空行,可以使堆疊圖的意義更加清晰,可選colors等屬性
  • 餅圖:plt.pie(slice),餅圖用於顯示部分對整體的關系,可選labels,colors,explode,autupct等屬性

五:Pandas

10 Minutes to Pandas

十分鐘搞定pandas(上文翻譯版)

利用python進行數據分析

上面兩個教程用於速成,下面這本書是pandas的作者寫的,用於仔細了解

  • 一般使用如下語句導入:import pandas as pd
  • Pandas是基於NumPy 的一種工具,提供了一套名為DataFrame的數據結構,比較契合統計分析中的表結構,可用Numpy或其它方式進行計算
  • 創建Series:pd.Series=(data,index),Series是一維數組
  • 創建DataFrame:pd.DataFrame(data,index,colums),也可以傳遞一個字典結構來填充data和colums,DataFrame類似於二維表格,簡稱df
  • 查看df頭尾行:df.head(i),df.tail(i),如不填參數則分別返回除了前五行/倒數前五行的內容
  • 查看索引/列/數據:df.index,df.colums,df.values
  • 快速統計匯總:df.descrbe()
  • 數據轉置:df.T
  • 按軸排序:df.sort_index(axis=0,ascending=True)
  • 按值排序:df.sort_values(colums,axis=0,ascending=Ture)
  • 獲取:df[‘columnname‘]或df.columnname,會返回某列
  • 對行切片:df[start:stop:step],利用df[n:n+1]即可獲取某行
  • 通過標簽選擇某行:df.loc[index,columname]
  • 通過位置選擇某行:df.iloc[indexpos,columnpos],df.iloc[i,:]可獲取一行,df.iloc[:,i]可獲取一列
  • 布爾索引:df[bool],可以對單獨的列進行判定,也可以對整個DataFrame進行判定
  • 在pandas中使用np.nan代替缺失值,這些值不會被包含在計算中
  • 對index和columns進行增刪改:df.reindex(index,columns)
  • 去掉含有缺失值的行:df.dropna(how=‘any‘),可以選擇how=‘all‘只去掉所有值均缺失的行
  • 補充缺失值:df.fillna(value)
  • 數據應用:df.apply(func),可以是現有函數也可以是lambda函數
  • 連接:pd.contact(obj),obj可以是Series,DataFrame,Panel
  • 合並:pd.merge(left,right)
  • 追加:df.append(data)
  • 分組:df.groupby(columnname).func(),通常為分組/執行函數/組合結果
  • 時間:pandas有著重采樣等豐富的時間操作
  • 寫入CSV文件:df.to_csv(filename)
  • 讀取CSV文件:df.read_csv(filename),結果為DataFrame

六:Scikit-learn

python機器學習實踐與kaggle實戰

Sklearn快速入門

官方文檔

官方文檔中文翻譯

技術分享圖片

  • sklearn 把所有機器學習的模式整合統一起來了,學會了一個模式就可以通吃其他不同類型的學習模式
  • 步驟一般分為導入模塊-創建數據-建立模型-訓練-預測

特征工程:

在機器學習中,很重要的一步是對特征的處理,我們參考下文,先給出一些常用的特征處理方法在sklearn中的用法

使用sklearn做單機特征工程

  • 標準化(需要使用距離來度量相似性或用PCA降維時):
    from sklearn.preprocessing import StandardScaler
    data_train = StandardScaler().fit_transform(data_train)
    data_test = StandardScaler().fit_transform(data_test)
  • 區間縮放:
    from sklearn.preprocessing import MinMaxScaler
    data = MinMaxScaler().fit_transform(data)
  • 歸一化(利於計算梯度下降,消除量綱):
    from sklearn.preprocessing import Normalizer
    data = Normalizer().fit_transform(data)
  • 定量特征二值化(大於epsilon為1,小於等於epsilon為0):
    from sklearn.preprocessing import Binarizer
    data = Binarizer(threshold = epsilon).fit_transform(data)
  • 類別型特征轉換為數值型特征:

實際上就是保留數值型特征,並將不同的類別轉換為啞變量(獨熱編碼),可參考:python中DictVectorizer的使用

from sklearn.feature_extraction import DictVectorizer
vec = DictVectorizer(sparse = False)
X_train = vec.fit_transform(X_train.to_dict(orient = recoed))
  • 卡方檢驗:
    from sklearn.feature_selection import SelectKBest
    from sklearn.feature_selection import chi2
    #選擇K個最好的特征,返回選擇特征後的數據
    skb = SelectKBest(chi2, k = 10).fit(X_train, y_train)
    X_train = skb.transform(X_train)
    X_test = skb.transform(X_test)

  • 互信息法:
    from sklearn.feature_selection import SelectKBest
    from minepy import MINE
    
    #由於MINE的設計不是函數式的,定義mic方法將其為函數式的,返回一個二元組,二元組的第2項設置成固定的P值0.5
    def mic(x, y):
        m = MINE()
        m.compute_score(x, y)
        return (m.mic(), 0.5)
    
    #選擇K個最好的特征,返回特征選擇後的數據
    SelectKBest(lambda X, Y: array(map(lambda x:mic(x, Y), X.T)).T, k=2).fit_transform(iris.data, iris.target)
  • 主成分分析(PCA):
    from sklearn.decomposition import PCA
    estimator = PCA(n_components=2)#幾個主成分
    X_pca = estimator.fit_transform(X_data)

學習算法:

劃分訓練集和測試集:

from sklearn.cross_validation import train_test_split
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size = 0.25, random_state = 33)

訓練:

from sklearn import LearnAlgorithm#導入對應的學習算法包
la = LearnAlgorithm()
la.fit(X_train, y_train)
y_predict = la.predict(x_test)

隨機梯度下降法(SGD):

from sklearn.linear_model import SGDClassifier
sgd = SGDClassifier()
from sklearn.linear_model import SGDRegressor
sgd = SGDRegressor(loss=squared_loss, penalty=None, random_state=42)

支持向量機(SVM):

支持向量分類(SVC):

from sklearn.svm import SVC
svc_linear = SVC(kernel=linear)#線性核,可以選用不同的核

支持向量回歸(SVR):

from sklearn.svm import SVR
svr_linear = SVR(kernel=linear)#線性核,可以選用不同的核如poly,rbf

樸素貝葉斯(NaiveBayes):

from sklearn.naive_bayes import MultinomialNB
mnb = MultinomialNB()

決策樹(DecisionTreeClassifier):

from sklearn.tree import DecisionTreeClassifier
dtc = DecisionTreeClassifier(criterion=entropy, max_depth=3, min_samples_leaf=5)#最大深度和最小樣本數,用於防止過擬合

隨機森林(RandomForestClassifier):

from sklearn.ensemble import RandomForestClassifier
rfc = RandomForestClassifier(max_depth=3, min_samples_leaf=5)

梯度提升樹(GBDT):

from sklearn.ensemble import GradientBoostingClassifier
gbc = GradientBoostingClassifier(max_depth=3, min_samples_leaf=5)

極限回歸森林(ExtraTreesRegressor):

from sklearn.ensemble import ExtraTreesRegressor()
etr = ExtraTreesRegressor()

評估:

from sklearn import metrics
accuracy_rate = metrics.accuracy_score(y_test, y_predict)
metrics.classification_report(y_test, y_predict, target_names = data.target_names)#可以獲取準確率,召回率等數據

K折交叉檢驗:

from sklearn.cross_validation import cross_val_score,KFold
cv = KFold(len(y), K, shuffle=True, random_state = 0)
scores = cross_val_score(clf, X, y, cv = cv)

from sklearn.cross_validation import cross_val_score
scores = cross_val_score(dt, X_train, y_train, cv = K)

註意這裏的X,y需要為ndarray類型,如果是DataFrame則需要用df.values和df.values.flatten()轉化

Pipeline機制:

pipeline機制實現了對全部步驟的流式化封裝和管理,應用於參數集在數據集上的重復使用.Pipeline對象接受二元tuple構成的list,第一個元素為自定義名稱,第二個元素為sklearn中的transformer或estimator,即處理特征和用於學習的方法.以樸素貝葉斯為例,根據處理特征的不同方法有以下代碼:

clf_1 = Pipeline([(count_vec, CountVectorizer()), (mnb, MultinomialNB())])
clf_2 = Pipeline([(hash_vec, HashingVectorizer(non_negative=True)), (mnb, MultinomialNB())])
clf_3 = Pipeline([(tfidf_vec, TfidfVectorizer()), (mnb, MultinomialNB())])

特征選擇:

from sklearn import feature_selection
fs =  feature_selection.SelectPercentile(feature_selection.chi2, percentile=per)
X_train_fs = fs.fit_transform(X_train, y_train)

我們以特征選擇和5折交叉檢驗為例,實現一個完整的參數選擇過程:

from sklearn import feature_selection
from sklearn.cross_validation import cross_val_score
percentiles = range(1,100)
results= []
for i in percentiles:
    fs =  feature_selection.SelectPercentile(feature_selection.chi2, percentile=i)
    X_train_fs = fs.fit_transform(X_train, y_train)
    scores = cross_val_score(dt, X_train_fs, y_train, cv = 5)
    results = np.append(results, scores.mean())

opt = np.where(results == results.max())[0]
fs = feature_selection.SelectPercentile(feature_selection.chi2, percentile=opt)
X_train_fs = fs.fit_transform(X_train, y_train)
dt.fit(X_train_fs, y_train)
y_predict = dt.predict(x_test)

超參數:

超參數指機器學習模型裏的框架參數,在競賽和工程中都非常重要

集成學習(Ensemble Learning):

通過對多個模型融合以提升整體性能,如隨機森林,XGBoost,參考下文:

Ensemble Learning-模型融合-Python實現

多線程網格搜索:

用於尋找最優參數,可參考下文:

Sklearn-GridSearchCV網格搜索

from sklearn.cross_validation import train_test_split
from sklearn.grid_search import GridSearchCV
X_train, X_test, y_train, y_test = train_test_split(news.data[:3000], news.target[:3000], test_size=0.25, random_state=33)

from sklearn.svm import SVC
from sklearn.feature_extraction.text import TfidfVectorizer
from sklearn.pipeline import Pipeline

clf = Pipeline([(vect, TfidfVectorizer(stop_words=english, analyzer=word)), (svc, SVC())])

parameters = {svc__gamma: np.logspace(-2, 1, 4), svc__C: np.logspace(-1, 1, 3)}

gs = GridSearchCV(clf, parameters, verbose=2, refit=True, cv=3, n_jobs=-1)

%time _=gs.fit(X_train, y_train)
gs.best_params_, gs.best_score_
print gs.score(X_test, y_test)

七:Kaggle

學習完以上內容後,可以參考下文,已經可以完成一些較為簡單的kaggle contest了

機器學習系列(3)_邏輯回歸應用之Kaggle泰坦尼克之災

Kaggle新手入門之路