1. 程式人生 > >機器學習效能評估指標---準確率(Accuracy), 精確率(Precision), 召回率(Recall)

機器學習效能評估指標---準確率(Accuracy), 精確率(Precision), 召回率(Recall)


分類

混淆矩陣1

  • True Positive(真正, TP):將正類預測為正類數.
  • True Negative(真負 , TN):將負類預測為負類數.
  • False Positive(假正, FP):將負類預測為正類數  誤報 (Type I error).
  • False Negative(假負 , FN):將正類預測為負類數  漏報 (Type II error).

此處輸入圖片的描述

精確率(precision)定義為:

P=TPTP+FP(1)(1)P=TPTP+FP

需要注意的是精確率(precision)和準確率(accuracy)是不一樣的,

ACC=TP+TNTP+TN+FP+FNACC=TP+TNTP+TN+FP+FN

在正負樣本不平衡的情況下,準確率這個評價指標有很大的缺陷。比如在網際網路廣告裡面,點選的數量是很少的,一般只有千分之幾,如果用acc,即使全部預測成負類(不點選)acc 也有 99% 以上,沒有意義。

召回率(recall,sensitivity,true positive rate)定義為:

R=TPTP+FN(2)(2)R=TPTP+FN

此外,還有 F1F1 值,是精確率和召回率的調和均值

2F1F1=1P+1R=2TP2TP+FP+FN(3)2F1=1P+1R(3)F1=2TP2TP+FP+FN

精確率和準確率都高的情況下,F1F1 值也會高。

通俗版本

剛開始接觸這兩個概念的時候總搞混,時間一長就記不清了。

實際上非常簡單,精確率是針對我們預測結果而言的,它表示的是預測為正的樣本中有多少是對的。那麼預測為正就有兩種可能了,一種就是把正類預測為正類(TP),另一種就是把負類預測為正類(FP)。

召回率是針對我們原來的樣本而言的,它表示的是樣本中的正例有多少被預測正確了。那也有兩種可能,一種是把原來的正類預測成正類(TP),另一種就是把原來的正類預測為負類(FN)。

此處輸入圖片的描述

在資訊檢索領域,精確率和召回率又被稱為查準率查全率

查準率=檢索出的相關資訊量檢索出的資訊總量查全率=檢索出的相關資訊量系統中的相關資訊總量

ROC 曲線

我們先來看下維基百科的定義,

In signal detection theory, a receiver operating characteristic (ROC), or simply ROC curve, is a graphical plot which illustrates the performance of a binary classifier system as its discrimination threshold is varied.

比如在邏輯迴歸裡面,我們會設一個閾值,大於這個值的為正類,小於這個值為負類。如果我們減小這個閥值,那麼更多的樣本會被識別為正類。這會提高正類的識別率,但同時也會使得更多的負類被錯誤識別為正類。為了形象化這一變化,在此引入 ROC ,ROC 曲線可以用於評價一個分類器好壞。

ROC 關注兩個指標,

相關推薦

機器學習效能評估指標---準確率(Accuracy), 精確(Precision), 召回(Recall)

分類 混淆矩陣1 True Positive(真正, TP):將正類預測為正類數.True Negative(真負 , TN):將負類預測為負類數.False Positive(假正, FP):將負類預測為正類數 →→ 誤報 (Type I

機器學習效能評估指標精確召回、ROC、AUC)

實際上非常簡單,精確率是針對我們預測結果而言的,它表示的是預測為正的樣本中有多少是對的。那麼預測為正就有兩種可能了,一種就是把正類預測為正類(TP),另一種就是把負類預測為正類(FP)。                       P = TP/(TP+FP) 而召回

機器學習效能度量指標:ROC曲線、查準率、查全率、F1

錯誤率 在常見的具體機器學習演算法模型中,一般都使用錯誤率來優化loss function來保證模型達到最優。 \[錯誤率=\frac{分類錯誤的樣本}{樣本總數}\] \[error_rate=\frac{1}{m} \sum_{i=1}^{m} I(f(x_{i})\neq y_{i})\] 但是錯誤

機器學習常用評估指標的前世今生

  在機器學習中,效能指標(Metrics)是衡量一個模型好壞的關鍵,通過衡量模型輸出y_predict和y_true之間的某種“距離”得出的。   效能指標往往使我們做模型時的最終目標,如準確率,召回率,敏感度等等,但是效能指標常常因為不可微分,無法作為優化的loss函式,因此採用如cross-entrop

機器學習常見評估指標

1.單值評估指標     在機器學習或深度學習中,為了評估最終模型的好壞,我們經常會引入各種評估指標,為了便於指標的說明,我們這裡具一個例子作為說明。假設我們建立一個影象分類模型,該模型用來區分一張影象是否屬於貓,即一個二分類的模型,此時,模型預測結果的混淆矩陣如下表所示:

準確率(Accuracy) 精確(Precision) 召回(Recall)和F1-Measure

搜索 例如 總數 文檔 measure 目標 就是 原本 pos 先驗知識   我們首先將數據的類別統一分為兩類:正類和負類。例如:一個數據集中的數據一共有3類,小學生、中學生、高中生。我們的目標是預測小學生,那麽標記為小學生的數據就是正類,標記為其他類型的數據都是負類。

準確率(Accuracy), 精確(Precision), 召回(Recall)和F1-Measure

機器學習(ML),自然語言處理(NLP),資訊檢索(IR)等領域,評估(Evaluation)是一個必要的 工作,而其評價指標往往有如下幾點:準確率(Accuracy),精確率(Precision),召回率(Recall)和F1-Measure。(注: 相對來說,IR 的

準確率(Accuracy), 精確(Precision), 召回(Recall)和F1-Measure,confusion matrix

自然語言處理(ML),機器學習(NLP),資訊檢索(IR)等領域,評估(Evaluation)是一個必要的工作,而其評價指標往往有如下幾點:準確率(Accuracy),精確率(Precision),召回率(Recall)和F1-Measure。 本文將簡單介紹其中幾個概

白話理解: 準確率(Accuracy), 精確(Precision), 召回(Recall)

本文重點是在白話,不是數學上面的嚴格定義. 那首先要有一個業務場景,就好比上學,學習資料庫,就要用到學生成績. 在這,我們的業務場景就是對100個西瓜進行分類(已知生熟各半) 下面是針對上面場景,對各個術語的解釋 準確率(Accuracy): 對所有西瓜分類正確的比率. 精確率(Precision): 挑

FP,FN,TP,TN與精確(Precision),召回(Recall),準確率(Accuracy)

一: FP,FN,TP,TN 剛接觸這些評價指標時,感覺很難記憶FP,FN,TP,TN,主要還是要理解,理解後就容易記住了 P(Positive)和N(Negative) 代表模型的判斷結果 T(Tr

機器學習之分類問題的評估指標2---準確率精確召回以及F1值

本節主要了解一下sklearn.metrics下計算準確率、精確率、召回率和F1值的函式以及對於多分類問題計算時的理解 1、sklearn.metrics.accuracy_score(y_true, y_pred, normalize=True, sample_weigh

機器學習模型準確率精確召回,F-1指標及ROC曲線

01準確率,精確率,召回率,F-1指標及ROC曲線 假設原樣本有兩類,正樣本True和負樣本False 正樣本 -------------------------------True 負樣本 --------------------------------False 真 正樣本 True P

機器學習效能指標精確召回、F1值、ROC、PRC與AUC--周振洋

機器學習效能指標精確率、召回率、F1值、ROC、PRC與AUC   精確率、召回率、F1、AUC和ROC曲線都是評價模型好壞的指標,那麼它們之間有什麼不同,又有什麼聯絡呢。下面讓我們分別來看一下這幾個指標分別是什麼意思。 針對

機器學習效能指標精確召回、F1值、ROC、PRC與AUC

  精確率、召回率、F1、AUC和ROC曲線都是評價模型好壞的指標,那麼它們之間有什麼不同,又有什麼聯絡呢。下面讓我們分別來看一下這幾個指標分別是什麼意思。 針對一個二分類問題,將例項分成正類(postive)或者負類(negative)。但是實際中分類時,會出現四種情況

機器學習效能指標(ROC、AUC、)

混淆矩陣 TP(真正樣本數): 預測是正樣本(positive),預測正確(ture)的個數,即實際是正樣本預測成正樣本的樣本數 FN(假負樣本數) TN(真負樣本數) FP(假正樣本數) ROC 橫軸:FPR(負正樣本率)=FP/(FP+TN) 即,預測錯的原本負樣本佔總體

機器學習常見評價指標:AUC、PrecisionRecall、F-measure、Accuracy

1、AUC的計算    AUC是一個模型評價指標,用於二分類模型的評價。AUC是“Area under Curve(曲線下的面積)”的英文縮寫,而這條“Curve(曲線)”就是ROC曲線。    為什麼要用AUC作為二分類模型的評價指標呢?為什麼不直接通過計算準確率來對模型進

機器學習 模型評估中的 精確召回、F1、ROC、AUC

文章目錄 1 混淆矩陣 1.2 多分類的例子 2.2 二分類的例子 2.3 二分類真實數值計算 2 各類指標的優缺點 1 混淆矩陣 準確率對於分類器的效能分析來說,並不是一個很好地衡量指標,因為如果資料

機器學習演算法——評價指標彙總

準確率,精確率,召回率和F1 準確率(Accuracy), 精確率(Precision), 召回率(Recall)和F1-Measure ROC-AUC ROC曲線 需要提前說明的是,我們這裡只討論二值分類器。對於分類器,或者說分類演算法,評價指標主要有precision,recal

機器學習模型評估方法

實際的機器學習專案中,我們往往只知道包含m個樣例的資料集D,D={(x1,y1),(x2,y2),(x3,y3),...(xm,ym)},通過對資料集D進行適當的處理,劃分為訓練集和測試集,訓練集構建模型,然後用該模型計算測試資料集的測試誤差,最後以測試集的測試誤差近似為模型的泛化能力,根據泛化

機器學習演算法中的準確率(Precision)、召回(Recall)、F值(F-Measure)

資料探勘、機器學習和推薦系統中的評測指標—準確率(Precision)、召回率(Recall)、F值(F-Measure)簡介。 在機器學習、資料探勘、推薦系統完成建模之後,需要對模型的效果做評價。 業內目前常常採用的評價指標有準確率(Precision)、召回率(Recall)、F值(F-