1. 程式人生 > >周志華《機器學習》課後習題解答系列(四):Ch3.3

周志華《機器學習》課後習題解答系列(四):Ch3.3

思路概要

程式設計實現對率迴歸:
* 採用sklearn邏輯斯蒂迴歸庫函式實現,通過檢視混淆矩陣,繪製決策區域來檢視模型分類效果;
* 自己程式設計實現,從極大化似然函數出發,採用梯度下降法得到最優引數,然後嘗試了隨機梯度下降法來優化過程。

3.3 程式設計實現對率迴歸

這裡寫圖片描述

所使用的資料集如下:

這裡寫圖片描述

本題是本書的第一個程式設計練習,採用了自己程式設計實現和呼叫sklearn庫函式兩種不同的方式,詳細解答和編碼過程:(檢視完整程式碼):

1.獲取資料、檢視資料、預處理:

觀察資料可知,X包含(密度、含糖量)兩個變數,y為西瓜是否好瓜分類(二分),由此生成.csv資料檔案,在Python中用Numpy讀取資料並採用matplotlib庫視覺化資料:

樣例程式碼:

'''
data importion
'''
import numpy as np
import matplotlib.pyplot as plt  

# load the CSV file as a numpy matrix
dataset = np.loadtxt('../data/watermelon_3a.csv', delimiter=",")

# separate the data from the target attributes
X = dataset[:,1:3]
y = dataset[:,3]

# draw scatter diagram to show the raw data
f1 = plt.figure(1) plt.title('watermelon_3a') plt.xlabel('density') plt.ylabel('ratio_sugar') plt.scatter(X[y == 0,0], X[y == 0,1], marker = 'o', color = 'k', s=100, label = 'bad') plt.scatter(X[y == 1,0], X[y == 1,1], marker = 'o', color = 'g', s=100, label = 'good') plt.legend(loc = 'upper right'
) plt.show()

資料散點圖:

這裡寫圖片描述

2.採用sklearn邏輯迴歸庫函式直接擬合:

雖然樣本量很少,這裡還是先劃分訓練集和測試集,採用sklearn.model_selection.train_test_split()實現,然後採用sklearn.linear_model.LogisticRegression,基於訓練集直接擬合出邏輯迴歸模型,然後在測試集上評估模型(檢視混淆矩陣和F1值)。

樣例程式碼:

''' 
using sklearn lib for logistic regression
'''
from sklearn import model_selection
from sklearn.linear_model import LogisticRegression
from sklearn import metrics


# generalization of test and train set
X_train, X_test, y_train, y_test = model_selection.train_test_split(X, y, test_size=0.5, random_state=0)

# model training
log_model = LogisticRegression() 
log_model.fit(X_train, y_train) 

# model testing
y_pred = log_model.predict(X_test)

# summarize the accuracy of fitting
print(metrics.confusion_matrix(y_test, y_pred))
print(metrics.classification_report(y_test, y_pred))

得出混淆矩陣和相關度量(查準率(準確率)、查全率(召回率),F1值)結果如下:

[[4 1]
 [1 3]]
             precision    recall  f1-score   support

        0.0       0.80      0.80      0.80         5
        1.0       0.75      0.75      0.75         4

avg / total       0.78      0.78      0.78         9

由混淆矩陣可以看到,由於樣本本身數量較少,模型擬合效果一般,總體預測精度約為0.78。為提升精度,可以採用自助法進行重抽樣擴充資料集,或是採用交叉驗證選擇最優模型。

下圖是採用matplotlib.contourf繪製的決策區域和邊界,可以看出對率迴歸分類器還是成功的分出了絕大多數類:

這裡寫圖片描述

3.自己程式設計實現邏輯斯蒂迴歸

程式設計實現邏輯迴歸的主要工作是求取引數w和b(見書p59),最常用的引數估計方法是極大似然法,由於題3.1已經證得對數似然函式(見書3.27)是凸函式,存在最優解,這裡考慮採用梯度下降法來迭代尋優。

回顧一下Sigmoid函式,即邏輯斯蒂迴歸分類器的基礎模型:

這裡寫圖片描述

目的是基於資料集求出最優引數w和b,最常採用的是極大似然法,引數的似然函式為:

這裡寫圖片描述

根據書p59,最大化上式等價於最小化下式:

這裡寫圖片描述

題3.2已證上式為凸函式,一定存在最小值,但按照導數為零的解析求解方式較為困難,於是考慮採用梯度下降法來求解上式最小值時對應的引數。

注:梯度下降法基本知識可參考書中附錄p409頁,也可直接採用書中p60式3.30偏導數公式。書中關於引數迭代改變式子如下:

這裡寫圖片描述

對於迭代,可每次先根據(B.16)計算出梯度▽f(β),然後由(B.17)更新得出下一步的Δβ。

接下來程式設計實現基本的梯度下降法:

(1)首先程式設計實現物件式3.27:

def likelihood_sub(x, y, beta):
    '''
    @param x: one sample variables
    @param y: one sample label
    @param beta: the parameter vector in 3.27
    @return: the sub_log-likelihood of 3.27  
    ''' 
    return -y * np.dot(beta, x.T) + np.math.log(1 + np.math.exp(np.dot(beta, x.T)))   

def likelihood(X, y, beta):
    '''
    @param X: the sample variables matrix
    @param y: the sample label matrix
    @param beta: the parameter vector in 3.27
    @return: the log-likelihood of 3.27  
    '''
    sum = 0
    m,n = np.shape(X)  

    for i in range(m):
        sum += likelihood_sub(X[i], y[i], beta)

    return sum  

(2)然後基於訓練集(注意x->[x,1]),給出基於3.27似然函式的定步長梯度下降法,注意這裡的偏梯度實現技巧:

'''
@param X: X is the variable matrix 
@param y: y is the label array
@return: the best parameter estimate of 3.27
'''
def gradDscent_1(X, y):  #implementation of basic gradDscent algorithms

    h = 0.1  # step length of iteration
    max_times= 500  # give the iterative times limit
    m, n = np.shape(X)

    beta = np.zeros(n)  # parameter and initial to 0
    delta_beta = np.ones(n)*h  # delta parameter and initial to h
    llh = 0
    llh_temp = 0

    for i in range(max_times):
        beta_temp = beta.copy()

        # for partial derivative 
        for j in range(n): 
            beta[j] += delta_beta[j]
            llh_tmp = likelihood(X, y, beta)
            delta_beta[j] = -h * (llh_tmp - llh) / delta_beta[j]                
            beta[j] = beta_temp[j]

        beta += delta_beta            
        llh = likelihood(X, y, beta)

    return beta

通過追蹤引數,檢視其收斂曲線,然後來調節相關引數(步長h,迭代次數max_times)。下圖是在當前引數取值下的beta曲線,可以看到其收斂良好:

這裡寫圖片描述

(3)最後建立Sigmoid預測函式,對測試集資料進預測,得到混淆矩陣如下:

[[ 4.  1.]
 [ 1.  3.]]

可以看出其總體預測精度(7/9 ≈ 0.78)與呼叫sklearn庫得出的結果相當。

(4)採用隨機梯度下降法來優化:上面採用的是全域性定步長梯度下降法(稱之為批量梯度下降),這種方法在可能會面臨收斂過慢和收斂曲線波動情況的同時,每次迭代需要全域性計算,計算量隨資料量增大而急劇增大。所以嘗試採用隨機梯度下降來改善引數迭代尋優過程。

隨機梯度下降法的核心思想是增量學習:一次只用一個新樣本來更新迴歸係數,從而形成線上流式處理。

同時為了加快收斂,採用變步長的策略,h隨著迭代次數逐漸減小。

給出變步長隨機梯度下降法的程式碼如下:

def gradDscent_2(X, y):  #implementation of stochastic gradDscent algorithms
  '''
   @param X: X is the variable matrix 
   @param y: y is the label array
   @return: the best parameter estimate of 3.27
   '''
   import matplotlib.pyplot as plt  

   m, n = np.shape(X)
   h = 0.5  #  step length of iterator and initial
   beta = np.zeros(n)  # parameter and initial
   delta_beta = np.ones(n) * h
   llh = 0
   llh_temp = 0

   for i in range(m):
       beta_temp = beta.copy()  # for partial derivative 

       for j in range(n): 
           h = 0.5 * 1 / (1 + i + j)  # change step length of iterator 
           beta[j] += delta_beta[j]
           llh_tmp = likelihood_sub(X[i], y[i], beta)
           delta_beta[j] = -h * (llh_tmp - llh) / delta_beta[j]   
           beta[j] = beta_temp[j]  

       beta += delta_beta    
       llh = likelihood_sub(X[i], y[i], beta)

   return beta

得出混淆矩陣:

[[ 3.  2.]
 [ 0.  4.]]

從結果看到的是:由於這裡的西瓜資料集並不大,所以隨機梯度下降法採用一次遍歷所得的結果不太好,引數也沒有完成收斂。這裡只是給出隨機梯度下降法的實現樣例,這種方法在大資料集下相比批量梯度法應會有明顯的優勢。

參考連結:
由於這是本書第一個程式設計,索引資料較多,擇其重要的一些列出如下: