1. 程式人生 > >7.【基礎】波士頓房價預測--LinearRegression

7.【基礎】波士頓房價預測--LinearRegression

本文所有實現程式碼均來自《Python機器學習及實戰》

#-*- coding:UTF-8 -*-

#第一步:讀取波士頓房價資料
from sklearn.datasets import load_boston
boston = load_boston()
print boston.DESCR
#從輸出結果來看,該資料共有506條波士頓房價的資料,每條資料包括對指定房屋的13項數值型特徵和目標房價
#此外,該資料中沒有缺失的屬性/特徵值,更加方便了後續的分析

#第二步:波士頓房價資料分割
from sklearn.cross_validation import train_test_split
import
numpy as np X_train,X_test,y_train,y_test = train_test_split(boston.data,boston.target,test_size=0.25,random_state=33) #分析迴歸目標值的差異 print 'The max target value is ',np.max(boston.target) print 'The min target value is ',np.min(boston.target) print 'The average target value is ',np.mean(boston.target) #第三步:訓練資料和測試資料標準化處理
from sklearn.preprocessing import StandardScaler #分別初始化對特徵值和目標值的標準化器 ss_X = StandardScaler() ss_y = StandardScaler() #訓練資料都是數值型,所以要標準化處理 X_train = ss_X.fit_transform(X_train) X_test = ss_X.transform(X_test) #目標資料(房價預測值)也是數值型,所以也要標準化處理 #說明一下:fit_transform與transform都要求操作2D資料,而此時的y_train與y_test都是1D的,因此需要呼叫reshape(-1,1),例如:[1,2,3]變成[[1],[2],[3]]
y_train = ss_y.fit_transform(y_train.reshape(-1,1)) y_test = ss_y.transform(y_test.reshape(-1,1)) #第四步:使用線性迴歸模型LinearRegression和SGDRegressor分別對美國房價進行預測 #不要搞混了,這裡用的是LinearRegression而不是線性分類的LogisticRegression from sklearn.linear_model import LinearRegression lr = LinearRegression() lr.fit(X_train,y_train) lr_y_predict = lr.predict(X_test) from sklearn.linear_model import SGDRegressor sgdr = SGDRegressor() sgdr.fit(X_train,y_train) sgdr_y_predict = sgdr.predict(X_test) #第五步:效能測評 #主要是判斷預測值與真實值之間的差距,比較直觀的評價指標有 #平均絕對值誤差MAE(mean absolute error) #均方誤差MSE(mean squared error) #R-squared評價函式 #使用LinearRegression模型自帶的評估模組,並輸出評估結果 print 'the value of default measurement of LR:',lr.score(X_test,y_test) from sklearn.metrics import r2_score,mean_squared_error,mean_absolute_error print 'the value of R-squared of LR is',r2_score(y_test,lr_y_predict) #可以使用標準化器中的inverse_transform函式還原轉換前的真實值 print 'the MSE of LR is',mean_squared_error(ss_y.inverse_transform(y_test),ss_y.inverse_transform(lr_y_predict)) print 'the MAE of LR is',mean_absolute_error(ss_y.inverse_transform(y_test),ss_y.inverse_transform(lr_y_predict)) #使用SGDRegressor自帶的評估模組,並輸出評估結果 print 'the value of default measurement of SGDR:',sgdr.score(X_test,y_test) from sklearn.metrics import r2_score,mean_squared_error,mean_absolute_error print 'the value of R-squared of SGDR is',r2_score(y_test,sgdr_y_predict) print 'the MSE of SGDR is',mean_squared_error(ss_y.inverse_transform(y_test),ss_y.inverse_transform(sgdr_y_predict)) print 'the MAE of SGDR is',mean_absolute_error(ss_y.inverse_transform(y_test),ss_y.inverse_transform(sgdr_y_predict)) #總結: #從輸出結果來看,迴歸模型自帶的評估結果與r2_score的值是一樣的,推薦使用第一種方式 #SGDRegressor在效能上表現略遜於LinearRegression,前者是隨機梯度下降的方式估計引數,後者是精確解析引數 #在資料量十分龐大(10W+)的時候,推薦使用SGDRegressor