1. 程式人生 > >召回率和準確率的理解

召回率和準確率的理解

今天看書再一次看到這兩個概念,在我印象中原來很努力記憶過一次,效果嘛→顯而易見。這一次學聰明點,看懂了就記錄下來。

首先來講下二者概念:

召回率(recall):是針對我們原來樣本而言,表示有多少樣本中的正例(一種是把正類預測為正類即TP,一種是把正類預測為負類即FN)被預測正確了。R = \frac{TP}{TP+FN},提取出的正確資訊條數 / 樣本中的資訊條數。

精確率(precision):是針對我們的預測結果而言,表示的是預測為正的樣本中(一種是把正類預測為正類即TP,一種是把負類預測為正類即FP)有多少是真正的正樣本。P  = \frac{TP}{TP+FP}, 提取出的正確資訊條數 / 提取出的資訊條數。

TP:將正類預測為正類數

FP:將負類預測為正類數

FN:將正類預測為負類數 

TN:將負類預測為負類數

現在來講下記憶方法,T、F分別是TURE/FALSE,表示是結果的對不對的意思。P、N分別是Positive/Negative表示我們認為的是"是"或者”不是“。首先我們看第一個TP,拆開理解就是T和P,T表示預測結果是對的,P表示我們認為這結果為“正類”,意味著是從正類→正類。F和P,F表示預測結果是錯的,P表示我們認為這結果為“正類”,所以負類→正類。F和N,F表示預測結果錯誤,N表示我們認為這結果為“負類”,所以正類→負類。T和N,T表示預測結果是對的,N表示我們認為這結果為“負類”,所以負類→負類。

還有一個是準確率(accuracy ):簡單理解就是猜對(將正的猜為正,將負的猜為負)的結果佔總數的概率。(TP+TN)/(TP+FP+FN+TN).

再補充一個F1值指標,公式是,作用就是調和P和R 的矛盾。後面查到升級版F1值引數,如下圖

主要是為了我自己記憶筆記,所以有沒明白的思路的小夥伴可以看看我當初參考的連結,自己琢磨下。

相關推薦

召回準確率之於推薦演算法的理解

推薦演算法有兩種準確度評價指標: 1、預測準確度:比如MAE,RMSE 2、分類準確度: 分類準確度定義為推薦演算法對一個產品使用者是否喜歡判定正確的比例。因此 ,當用戶只有二元選擇時 ,用分類準確度進行評價較為合適。因此,想要用準確率和召回率評價推薦演算法,必須將評

召回準確率理解

今天看書再一次看到這兩個概念,在我印象中原來很努力記憶過一次,效果嘛→顯而易見。這一次學聰明點,看懂了就記錄下來。 首先來講下二者概念: 召回率(recall):是針對我們原來樣本而言,表示有多少樣本中的正例(一種是把正類預測為正類即TP,一種是把正類預測為負類即FN)被

關於召回準確率理解

最近一直在做相關推薦方面的研究與應用工作,召回率與準確率這兩個概念偶爾會遇到, 知道意思,但是有時候要很清晰地向同學介紹則有點轉不過彎來。 召回率和準確率是資料探勘中預測、網際網路中的搜尋引擎等經常涉及的兩個概念和指標。 召回率:Recall,又稱“查全率”——還是查全

召回 準確率.md

召回率 和 準確率 首先,要先理解, TP,真正,將正類預測成正類數(預測對了) FN,假負,將正類預測成負類數(預測錯了) FP,假正,將負類預測成正類數(預測錯了) TN,真負,將負類預測成負類數(預測對了) 第一字母是判斷的對錯,第二字母是判斷的對錯的類別

詳細講解準確率召回綜合評價指標

質量 .com http all strong average 均值 比例 har 為了對實驗結果進行評價,用到準確率、召回率和F值,下面對此進行詳細介紹。 1、準確率與召回率(Precision & Recall) 準確率和召回率是廣泛用於信息檢索和統計學分類領

二分類相關評估指標(召回準確率,精確,F度量,AUCROC)

  基礎定義   通常在機器學習的二分類領域中,對模型的結果評估是必不可少的,本文主要總結了各個評估指標,對每個指標的定義,作用進行闡述。廢話到此,直接上乾貨。 TP:True Positive   FP:False Positive TN:Tr

NLP-準確率、精確召回F1值

記錄準確率(Accuracy)、精確率(Precision)、召回率(Recall)和F1值(F-Measure)計算公式,和如何使用TensorFlow實現 一、計算公式 二、TensorFlow實現 # Accuracy w

使用LogisticRegressionSGDClassifier對良/惡性腫瘤進行分類,並計算出準確率召回F1的值

# -*- coding: utf-8 -*- """ Created on Tue Oct 24 10:08:40 2017 @author: liuyajun """ import pandas as pd import numpy as np from sklearn

二元分類中精確度precision召回recall的理解

精確度(precision) 是二元分類問題中一個常用的指標。二元分類問題中的目標類 別隻有兩個可能的取值, 而不是多個取值,其中一個類代表正,另一類代表負,精確度就 是被標記為“正”而且確實是“正”的樣本佔所有標記為“正”的樣本的比例。和精確度 一起出現的還有另一個指標召回率(r

準確率召回F1值

正確率、召回率和F值是在魚龍混雜的環境中,選出目標的重要評價指標。 不妨看看這些指標的定義先: 正確率 = 正確識別的個體總數 / 識別出的個體總數 召回率 = 正確識別的個體總數 / 測試集中存在的個體總數 F值 = 正確

召回準確率、mAP的理解

比如一個數據庫,男5人,女5人 系統1搜尋女,結果排序如下: 1 女 2 男 3 男 4 男 5 女 6 女 7 女 系統2 搜尋女,結果排序如下: 1 女 2 女 3 女 4 女 5 男 6 男 7 男 對於系統1: 查全率=系統檢索到的相關檔案 / 系統所有相關的檔

深入理解——召回(recall) 準確率(precision) 精度(accuracy) 錯誤率(error)

精度(accuracy)和錯誤率(error) 這個最常用,用在常見的分類任務中,比如有雞,鴨,鵝,狗,貓若干,讓模型一一回答他們的類別,見到扁嘴脖子長還會嘎嘎叫的,回答為鴨,預測正確,否則回答錯誤。最後 (回答正確個數) 除以 (雞鴨鵝狗貓總數) = 精度.

準確率召回F值的關係

在資訊檢索、統計分類、識別、預測、翻譯等領域,兩個最基本指標是準確率和召回率,用來評價結果的質量。 準確率(Precision),又稱“精度”、“正確率”、“查準率”,表示在檢索到的所有文件中,檢索到的相關文件所佔的比例。 召回率(Recall),又稱“查全

真假正負例、混淆矩陣、ROC曲線、召回準確率、F值、AP

[轉自:https://blog.csdn.net/yimingsilence/article/details/53769861]  一、假正例和假負例   假正例(False Positive):預測為1,實際為0的樣本   假負例(False N

推薦系統中的召回準確率

精確率是針對我們預測結果而言的,它表示的是預測為正的樣本中有多少是真正的正樣本,例如我們給使用者推薦了100條新聞,其中10條使用者產生了點選,那麼準確率為10/100 = 0.1而召回率是針對我們原來的樣本而言的,它表示的是樣本中的正例有多少被預測正確了, 例如我們給使用者推薦了100條新聞,其中10條使用

召回準確率(Precision and Recall)

  A    B 未檢索到   C    D A:檢索到的,相關的 (搜到的也想要的) B:檢索到的,但是不相關的 (搜到的但沒用的) C:未檢索到的,但卻是相關的 (沒搜到,然而實際上想要的) D:未檢索到的,也不相關的 (沒搜到也沒用的) 通常我們希望:資料庫中相關的文件,被檢索到的越多越好,這是追求“查

FP,FN,TP,TN與精確(Precision),召回(Recall),準確率(Accuracy)

一: FP,FN,TP,TN 剛接觸這些評價指標時,感覺很難記憶FP,FN,TP,TN,主要還是要理解,理解後就容易記住了 P(Positive)和N(Negative) 代表模型的判斷結果 T(Tr

推薦系統中準確率召回理解

        最近讀到推薦系統中的TopN推薦,它的預測準確率一般是通過準確率和召回率來進行評估的,那麼我們就要理解,什麼是準確率,什麼是召回率! 準確率,顧名思義,就是準確程度。通過正確數/總數得

準確率accuracy、精確precision召回recall

cal rac ive precision bsp trie true ron 所有 準確率:在所有樣本中,準確分類的數目所占的比例。(分對的正和分對的負占總樣本的比例) 精確率:分類為正確的樣本數,占所有被分類為正確的樣本數的比例。(分為正的中,分對的有多少) 召回率:分

機器學習推薦系統中的評測指標—準確率(Precision)、召回(Recall)、F值(F-Measure)簡介

模型 可擴展性 決策樹 balance rman bsp 理解 多個 缺失值 數據挖掘、機器學習和推薦系統中的評測指標—準確率(Precision)、召回率(Recall)、F值(F-Measure)簡介。 引言: 在機器學習、數據挖掘、推薦系統完成建模之後,需要對模型的