1. 程式人生 > >機器學習——如何評價迴歸模型

機器學習——如何評價迴歸模型

本內容整理自coursera,歡迎交流轉載。

如何定義損失

我們用如下符號表示迴歸模型的損失(loss):

L(y,fw^(x⃗ ))
舉個栗子,我們可以使用局對誤差或者方差表示 損失函式:
L(y,fw^(x⃗ ))=|yfw^(x⃗ )|
L(y,fw^(x⃗ ))=|yfw^(x⃗ )|2

三種誤差

training error

根據如上對損失函式的定義,training error可以表示為:

Trainingerror=average.lossinTrainingset=1NNi=1L(y,fw^(x⃗ ))

注意:這裡的計算實在training set上進行的。

例如我們可以用squared error來表示損失函式,那麼
Trainingerror(w^)=1NNi=1|yfw^(x⃗ )|2
由於training error是在訓練集計算的,所以隨著模型複雜度的增加,training error逐漸減小。

generalization error(泛化誤差)

泛化誤差表示為我們所有可能遇到的資料的誤差,
generalizationerror=Ex,y[L(y,fw^(x⃗ ))]
這裡的Ex,y指的是所有世界上可能的資料,w^是我們在training set得到的擬合係數向量。
所以說泛化誤差是永遠無法得到的。隨著模型的複雜度的增加,泛化誤差先變小,然後由於過擬合而變大。

test error(測試誤差)

Testerror=avg.lossintestset=1NtestiintestsetL(y,fw^(x⃗ i))

注意:這裡的w^依舊是在訓練集你喝的道德係數向量。

下面比較一下三種誤差:
這裡寫圖片描述

誤差的三個來源

主要來自以下三個方面:

  • noise(噪聲)
  • bias(偏差)
  • variance(方差)

噪聲是不可消除的。
Bias定義為:

假設我們有好多擬合函式,在不同的訓練集擬合。我們把這些函式平均得到一個fw¯(x⃗ ),那麼我們的Bias(x⃗ )=fw(true)(x⃗ )fw¯(x⃗ ),由這個定義我們可以得知較低的模型複雜度會有較高的偏差,即

相關推薦

常用的幾種機器學習演算法迴歸模型python程式碼實現

       由於在論文實驗過程中一直使用的是python語言完成的論文實驗,所以在論文需要使用機器學習方法時就考慮使用了scikit-learn。        scikit-learn是一款很好的Python機器學習庫,它包含以下的特點:        (1)簡單高效的資

機器學習迴歸模型的一些度量方法

https://scikit-learn.org/stable/modules/classes.html#sklearn-metrics-metrics Regression metrics See the Regression metrics section of the user gui

基於TensorFlow的機器學習(2) -- 迴歸模型

兩種典型的迴歸模型是linear regression 和 logistic regression。 以下將分別對兩種迴歸模型進行分析以及基於tensorflow的實現。 Linear Regression(線性迴歸) 線性迴歸基本概念 之前基於吳恩達的《

機器學習邏輯迴歸模型總結——從原理到sklearn實踐

0x00 基本原理 邏輯迴歸演算法,從名字上看似乎是個迴歸問題,但實際上邏輯迴歸是個典型的分類演算法。 對於分類問題,一般都是一些離散變數,且y的取值如下: y∈{0,1,2,3,...,n},顯然不能使用線性迴歸擬合。 以二元分類問題開始討論,y的取值

機器學習評價迴歸模型

在sklearn中包含四種評價尺度,分別為mean_squared_error、mean_absolute_error、explained_variance_score 和 r2_score。 1、均方差(mean-squared-error) 2、平均絕對值誤差(mean_absol

機器學習)如何評價迴歸模型?——Adjusted R-Square(校正決定係數)

在分類模型中,評價輸出相對簡單,有“錯誤率”、“混淆矩陣(confusion matrix)”、“正確率(precision)”、“召回率(recall)”、ROC曲線等等。但迴歸模型怎樣評價呢? 在一個迴歸預測結束後得到一串預測結果Y_predict。另有真

機器學習——如何評價迴歸模型

本內容整理自coursera,歡迎交流轉載。 如何定義損失 我們用如下符號表示迴歸模型的損失(loss): L(y,fw^(x⃗ )) 舉個栗子,我們可以使用局對誤差或者方差表示 損失函式: L(y,fw^(x⃗ ))=|y−f

機器學習機器學習分類器模型評價指標 機器學習分類器模型評價指標

機器學習分類器模型評價指標 分類器評價指標主要有: 1,Accuracy 2,Precision  3,Recall  4,F1 score  5,ROC 曲線

先驗概率、後驗概率、似然函式與機器學習中概率模型(如邏輯迴歸)的關係理解

看了好多書籍和部落格,講先驗後驗、貝葉斯公式、兩大學派、概率模型、或是邏輯迴歸,講的一個比一個清楚 ,但是聯絡起來卻理解不能   基本概念如下   先驗概率:一個事件發生的概率 \[P(y)\] 後驗概率:一個事件在另一個事件發生條件下的條件概率 \[P(y|x

機器學習 scikit-learn2 模型實踐 - 邏輯迴歸

邏輯迴歸 - 目錄 1 簡介 1.1 程式碼下載 1.2 程式碼使用方法 3 核心程式碼說明 3.1 模型配置 3.2 模型訓練 3.3 輸出結果 1 簡介 1.1 程式

機器學習|線性迴歸三大評價指標實現『MAE, MSE, MAPE』(Python語言描述)

對於迴歸預測結果,通常會有平均絕對誤差、平均絕對百分比誤差、均方誤差等多個指標進行評價。這裡,我們先介紹最常用的3個: 平均絕對誤差(MAE) 就是絕對誤差的平均值,它的計算公式如下: M

深度 | 機器學習中的模型評價模型選擇及演算法選擇

作者:Sebastian Raschka翻譯:reason_W編輯:周翔簡介正確使用模型評估、模

機器學習評價方法

論文 成了 har learning logs core 思想 img perf 剛開始看這方面論文的時候對於各種評價方法特別困惑,還總是記混,不完全統計下,備忘。 關於召回率和精確率,假設二分類問題,正樣本為x,負樣本為o: 準確率存在的問題是當正負樣本數量不均衡的時候

先驗概率、後驗概率、似然函數與機器學習中概率模型(如邏輯回歸)的關系理解

集中 並且 結果 概率論 但我 evidence logs 硬幣 之前 看了好多書籍和博客,講先驗後驗、貝葉斯公式、兩大學派、概率模型、或是邏輯回歸,講的一個比一個清楚 ,但是聯系起來卻理解不能 基本概念如下 先驗概率:一個事件發生的概率 \[P(y)\] 後驗概

機器學習-Logistic迴歸python實踐【3】(10.26更新)

寫在最前面:Logistic迴歸通過Sigmoid函式接受輸入然後進行預測 首先,介紹一下什麼是Sigmoid函式。大家一定聽過海維賽德階躍函式(Heaviside step function),什麼?沒聽過,好吧,換個名字,單位階躍函式,這個認識吧! 這個函式的問題在於該函式

機器學習-嶺迴歸python實踐【2】

寫在最前面: 當資料的特徵大於樣本點,線性迴歸就不能用了,因為在計算[(X^T)*X]的逆時候,n>m,n是特徵,m是樣本點,此時的輸入矩陣不是滿秩矩陣,行列式為0。 此時,我們可以使用嶺迴歸(ridge regression) 閱讀本文前,需要各位簡單回憶一下線性代數知識

Python實現機器學習迴歸分析

前言 機器學習常用來解決相關分析和迴歸分析的問題,有時候大家會混淆兩者之間的差異,這裡通過對比分析來說明兩者的區別和聯絡,最後會以呼叫sklearn包中LinearRegression方法進行簡單線性迴歸分析為例,說明如何使用python進行資料分析。 一、相關分析和迴

Windons10 python3.6 機器學習線性迴歸 matplotlib出現影象中文亂碼和使用sk_learn輸出ValueError: Expected 2D array, got 1D

Windons10 python3.6 機器學習線性迴歸 matplotlib出現影象中文亂碼和使用sk_learn輸出ValueError: Expected 2D array, got 1D array instead:問題解決 話不多說,大家來就是解決問題的,本人也是遇到問題才四處搜尋

機器學習-線性迴歸(LMS Algorithm)

今天正式開始機器學習之路(看的斯坦福大學的視訊課以及講義),由於看的時候濛濛的,因此想要找個平臺儲存一下自己學習的成果,因此寫了此篇文章,作為機器學習的小白,文章可能有諸多不妥之處,不作為學術理論的深入研究範圍。因為我是小白,我是小白,我是小白。 由於第一次用簡書寫,所以可能格式不太對,請見諒。

機器學習之---生成模型和判別模型

  監督學習方法可分為兩大類,即生成方法與判別方法,它們所學到的模型稱為生成模型與判別模型。 判別模型:判別模型是學得一個分類面(即學得一個模型),該分類面可用來區分不同的資料分別屬於哪一類; 生成模型:生成模型是學得各個類別各自的特徵(即可看成學得多個模型),可用這些