1. 程式人生 > >[Python] 一元線性迴歸分析例項

[Python] 一元線性迴歸分析例項

本文通過一個簡單的例子:預測房價,來探討怎麼用python做一元線性迴歸分析。

1. 預測房價

房價是一個很火的話題,現在我們拿到一組資料,是房子的大小(平方英尺)和房價(美元)之間的對應關係,如下(csv資料檔案):

No,square_feet,price
1,150,6450
2,200,7450
3,250,8450
4,300,9450
5,350,11450
6,400,15450
7,600,18450

從中可以大致看出,房價和房子大小之間是有相關關係的,且可以大致看出來是線性相關關係。為了簡單起見,這裡理想化地假設房價只和房子大小有關,那我們在這組資料的基礎上,用一元迴歸分析預測房子的房價。

2. 程式碼實現

#!usr/bin/env python
#!-*- coding: utf8 -*-
# python一元線性迴歸分析例項:預測房子價格
import matplotlib.pyplot as plt
import pandas as pd
from sklearn.linear_model import LinearRegression

# 用pandas讀取csv
data = pd.read_csv("../data/price_info.csv")
x = data['square_feet']
y = data['price']

# 構造X列表和Y列表,reshape(-1,1)改變陣列形狀,為只有一個屬性
x = x.reshape(-1,1) y = y.reshape(-1,1) # 構造迴歸物件 model = LinearRegression() model.fit(x, y) # 獲取預測值 predict_y = model.predict(x) # 構造返回字典 predictions = {} predictions['intercept'] = model.intercept_ # 截距值 predictions['coefficient'] = model.coef_ # 迴歸係數(斜率值) predictions['predict_value'] = predict_y # 繪出影象
# 繪出已知資料散點圖 plt.scatter(x, y, color = 'blue') # 繪出預測直線 plt.plot(x, predict_y, color = 'red', linewidth = 4) plt.title('predict the house price') plt.xlabel('square feet') plt.ylabel('price') plt.show()

3. 輸出結果

這裡寫圖片描述

相關推薦

[Python] 一元線性迴歸分析例項

本文通過一個簡單的例子:預測房價,來探討怎麼用python做一元線性迴歸分析。 1. 預測房價 房價是一個很火的話題,現在我們拿到一組資料,是房子的大小(平方英尺)和房價(美元)之間的對應關係,如下(csv資料檔案): No,square_feet,p

《用Python玩轉資料》專案—線性迴歸分析入門之波士頓房價預測(二)

接上一部分,此篇將用tensorflow建立神經網路,對波士頓房價資料進行簡單建模預測。 二、使用tensorflow擬合boston房價datasets 1、資料處理依然利用sklearn來分訓練集和測試集。 2、使用一層隱藏層的簡單網路,試下來用當前這組超引數收斂較快,準確率也可以。 3、啟用函式

一元線性迴歸-python

思路: 1、從0~10,生成等間距20個數作為x, 2、利用迴歸公式 y=5 + 2x + 3、計算y值 4、對資料進行估計 #生成從0到10之間選20個等間距的數 import numpy as np import matplotlib.pyplot as pl

python實現一元線性迴歸

最近在看中長期水文預報,打算使用python語言實現課本的模型並進行例項的計算結果的檢驗,為了監督自己和整理記錄自己實現的模型程式碼,打算寫部落格記錄自己的程式碼實現和部分思路。首先,自己不使用現成的模組實現的是一元線性迴歸模型,然後和模組實現對比,學習模組的呼叫。接下來是直接編寫的程式檔案,並計算

多元線性迴歸分析-Python&SPSS

原始資料在這裡1.觀察資料首先,用Pandas開啟資料,並進行觀察。import numpy import pandas as pd import matplotlib.pyplot as plt %matplotlib inline data = pd.read_csv

手把手教線性迴歸分析(附R語言例項

本文長度為8619字,建議閱讀15分鐘本文為你介紹線性迴歸分析。通常在現實應用中,我們需要去理解

Python 線性迴歸分析以及評價指標

""" # 利用 diabetes資料集來學習線性迴歸 # diabetes 是一個關於糖尿病的資料集, 該資料集包括442個病人的生理資料及一年以後的病情發展情況。 # 資料集中的特徵值總共10項, 如下: # 年齡 # 性別

梯度下降法及一元線性迴歸python實現

梯度下降法及一元線性迴歸的python實現 一、梯度下降法形象解釋   設想我們處在一座山的半山腰的位置,現在我們需要找到一條最快的下山路徑,請問應該怎麼走?根據生活經驗,我們會用一種十分貪心的策略,即在現在所處的位置上找到一個能夠保證我們下山最快的方向,然後向著該方向行走;每到一個新位置,重複地應用上述貪心

機器學習3- 一元線性迴歸+Python實現

[toc] # 1. 線性模型 給定 $d$ 個屬性描述的示例 $\boldsymbol{x} = (x_1; x_2; ...; x_d)$,其中 $x_i$ 為 $\boldsymbol{x}$ 在第 $i$ 個屬性上的取值,**線性模型**(*linear model*)試圖學得一個通過屬性的線性組合

機器學習之用Python進行邏輯迴歸分析

前言 迴歸和分類方法是機器學習中經常用到的方法,本文首先介紹這兩種方法的區別和聯絡,然後對分類方法中的邏輯迴歸進行較詳細的說明(包括其基本原理及評估指標),最後結合案例介紹如何利用Python進行邏輯迴歸分析。 一、分類與迴歸 1.1什麼是分類和迴歸 區分迴歸問題

用basicTrendline畫一元線性迴歸直線的置信區間

感慨統計學都還給老師了。。惡補! R安裝包的時候貌似需要用管理員許可權啟動,否則安裝不了,國內映象卡得渣渣,還是國外映象真香~選擇hongkong就好了。   install.packages("basicTrendline") library(basicTrendline) x1&l

機器學習之一元線性迴歸

概述 線性迴歸是利用數理統計中迴歸分析,來確定兩種或兩種以上變數間相互依賴的定量關係的一種統計分析方法,運用十分廣泛。其表達形式為y = w'x+e,e為誤差服從均值為0的正態分佈。 迴歸分析中,只包括一個自變數和一個因變數,且二者的關係可用一條直線近似表示,這種迴歸分析稱為一元線性迴歸分析。 如果迴歸分析

python實現線性迴歸.md

python實現線性迴歸 一、相關數學推導 1.問題描述 所謂線性迴歸,就是給你一批資料比如房子的面積以及房子的價格,然後你所做的就是找到一條線能儘量的擬合這一批資料。如下所示。 其中紅色點就是給出的資料集合,有size代表面積,而price代表價格,紅色點點就代表

python線性迴歸預測股票價格

線性迴歸在整個財務中廣泛應用於眾多應用程式中。在之前的教程中,我們使用普通最小二乘法(OLS)計算了公司的beta與相對索引的比較。現在,我們將使用線性迴歸來估計股票價格。 線性迴歸是一種用於模擬因變數(y)和自變數(x)之間關係的方法。通過簡單的線性迴歸,只有一個自變數x

Python_一元線性迴歸迴歸顯著性

1、資料準備 資料來源自《應用迴歸分析》(第四版) ## 火災損失表 ### 距離消防站km x = [3.4, 1.8, 4.6, 2.3, 3.1, 5.5, 0.7, 3.0, 2.6, 4.

4、python簡單線性迴歸程式碼案例(完整)

第一、迴歸分析的步驟 01 根據預測目標,確定自變數和因變數 02 繪製散點圖,確定迴歸模型型別 03 估計模型引數,建立迴歸模型 04 對迴歸模型進行檢驗 迴歸方程的精度就是用來表示實際觀測點和迴歸方程的擬合程度的指標,使用判定係數來度量。 判定係數=相關係數R平方=ESS

【機器學習筆記01】最小二乘法(一元線性迴歸模型)

【參考資料】 【1】《概率論與數理統計》 【2】 http://scikit-learn.org /stable/auto_examples/ linear_model/ plot_ols.html # sphx-glr-auto-examples-

基於Ubuntu16.04+Spark+Python線性迴歸(linear regression)演算法

參考: spark+python+ubuntu環境配置: https://blog.csdn.net/konglingshneg/article/details/82491157 Building A Linear Regression with PySpark and MLl

Python實現線性迴歸2,梯度下降演算法

接上篇 4.梯度下降演算法 《斯坦福大學公開課 :機器學習課程》吳恩達講解第二課時,是直接從梯度下降開始講解,最後採用向量和矩陣的方式推導瞭解析解,國內很多培訓視訊是先講解析解後講梯度下降,個人認為梯度下降演算法更為重要,它是很多演算法(邏輯迴歸、神經網路)都可

機器學習--線性迴歸1(一元線性迴歸、多元線性迴歸,誤差性質)

前面幾節都是監督學習方面的演算法,監督學習是指有目標變數或預測目標的機器學習方法,迴歸與分類的不同,就在於其目標變數是連續數值型,而分類的目標變數是標稱型資料,其實前面的Logistic迴歸就是迴歸的一種,他們的處理方法大同小異,在這裡系統的講解一下回歸的來龍去脈,理解影響迴