1. 程式人生 > >目標檢測效能評價指標mAP、Precision、Recall、IoU

目標檢測效能評價指標mAP、Precision、Recall、IoU

一、mAP

1. TP,FP,FN,TN

(1)TP(True positives):正確劃分正例個數;正->正;

(2)FP(False positives):錯誤劃分正例個數;負->正;

(3)FN(False negatives):錯誤劃分負例個數;正->負;

(4)TN(True negatives):正確劃分負例個數;負->負;

2. Precison

表示為正確劃分正例個數/全部個數;

3. Recall

表示為預測樣本中實際正樣本數 / 預測的樣本數;

一般來講,召回率越高,準確率越低。

4.PR曲線

        P-R曲線即 以 precision

 和 recall 作為 縱、橫軸座標 的二維曲線,P-R曲線圍起來的面積就是AP值,通常來說一個越好的分類器,AP值越高。

       在目標檢測中,每一類都可以根據 recall 和 precision繪製P-R曲線,AP就是該曲線下的面積,mAP就是所有類AP的平均值。

二、IoU

        IoU(Intersection over Union) 是一種測量在特定資料集中檢測相應物體準確度的一個標準;在很多檢測中都有用到這種方法,例如RCNN、Faster-RCNN、YOLO;

        IoU是一個簡單的測量標註,只要是在輸出中得到一個預測範圍(Bounding Box)的任務都可以用IoU進行測量,為了可以使IoU用於測量任意大小形狀的物體檢測:

(1)Ground-truth bounding box;

(2)演算法計算出的結果;

IoU相當於產生的候選框(candidate bound)與原標記框(ground truth bound)的交疊率或者是重疊率。

以上三張圖從左到右分別是差的,好的,非常好的。

一般認為,IoU>0.5是好的結果,但是在實際應用中,大多數演算法會設定IoU>0.7。

相關推薦

目標檢測效能評價指標mAPPrecisionRecallIoU

一、mAP 1. TP,FP,FN,TN (1)TP(True positives):正確劃分正例個數;正->正; (2)FP(False positives):錯誤劃分正例個數;負->正; (3)FN(False negatives):錯誤劃分負例個數;

目標檢測模型評估指標——mAP計算的討論

對於使用機器學習解決的大多數常見問題,通常有多種可用的模型。每個模型都有自己的獨特之處,並隨因素變化而表現不同。 每個模型在“驗證/測試”資料集上來評估效能,效能衡量使用各種統計量如準確度(accuracy),精度(precision),召回率(recall)等。選擇的統計量通常針對特定應用場景

顯著性目標檢測模型評價指標(一)——平均絕對誤差:Mean Absolute Error(MAE)

顯著性目標檢測模型評價指標 之 平均絕對誤差(MAE)原理與實現程式碼 目錄 一、顯著性目標檢測簡介 顯著性目標(Salient Object): 當我們在看一張圖片時,注意力首先會落在我們所感興趣的物體部分。比如我們看到一張畫有羊

目標檢測常見評價指標(轉)

一:準確率 (Accuracy) 、錯誤率 (Error rate) 二:混淆矩陣 (Confusion Matrix) 三:召回率(Recall)、精確率(Precision) 四: P-R曲線、平均精度(Average-Precision,AP)、F指標 五:

顯著性目標檢測模型評價指標(二)——PR曲線

顯著性目標檢測模型評價指標 之 PR曲線原理與實現程式碼 目錄 一、PR曲線原理 在顯著目標提取中(關於視覺顯著性的簡要介紹點此處連結),PR曲線是用來評估模型效能的重要指標之一,PR曲線中的P(Precision)和R(Recall)分

分類器評價指標 ROC,AUC,precisionrecall,F-score

        ROC (Receiver Operating Characteristic) 曲線和 AUC (Area Under the Curve) 值常被用來評價一個二值分類器 (binary classifi

目標檢測模型的評價指標 mAP

在使用機器學習解決實際問題時,通常有很多模型可用。每個模型都有自己的怪癖(quirks),並且基於各種因素,效能會有所不同。 模型效能的評定都是在某個資料集上進行的,通常這個資料集被稱為 “validation 或 test” 資料集。模型效能的評價常用的指標

目標檢測評價指標mAP 精準率和召回率

首先明確幾個概念,精確率,召回率,準確率 精確率precision 召回率recall 準確率accuracy 以一個實際例子入手,假設我們有100個腫瘤病人. 95個良性腫瘤病人,5個惡性腫瘤病人. 我們有一個檢測系統,去檢測一個腫瘤病人是否為惡性. 那麼,對我們的系統來說,有100個樣本,5個正樣本,

推薦系統評測指標—準確率(Precision)召回率(Recall)F值(F-Measure)

mda 統計 混雜 分類 sha 指標 lock 網頁 log 下面簡單列舉幾種常用的推薦系統評測指標: 1、準確率與召回率(Precision & Recall) 準確率和召回率是廣泛用於信息檢索和統計學分類領域的兩個度量值,用來評價結果的質量。其中精度是

系統評測指標—準確率(Precision)召回率(Recall)F值(F-Measure)

綜合 gho 評估 static 指標 href net rec 出現 轉自:http://bookshadow.com/weblog/2014/06/10/precision-recall-f-measure/ 1、準確率與召回率(Precision & Reca

機器學習和推薦系統中的評測指標—準確率(Precision)召回率(Recall)F值(F-Measure)簡介

模型 可擴展性 決策樹 balance rman bsp 理解 多個 缺失值 數據挖掘、機器學習和推薦系統中的評測指標—準確率(Precision)、召回率(Recall)、F值(F-Measure)簡介。 引言: 在機器學習、數據挖掘、推薦系統完成建模之後,需要對模型的

線性迴歸模型的效能評價指標

本節討論下線性迴歸模型的效能評價指標 對於機器學習的兩個基本問題分類和迴歸的評價方式有所不同,分類問題一般通過分類準確率、召回率、F1值、ROC/AUC等手段進行模型的評估。對於迴歸問題,該如何評價?  這裡簡要列舉部分評估方法。 1、殘差估計 總體思想是計算實際值與預測值間的

效能度量:準確率(Precision)召回率(Recall)F值(F-Measure);P-R曲線;ROC;AUC

reference:https://blog.csdn.net/qq_29462849/article/details/81053135 資料探勘、機器學習和推薦系統中的評測指標—準確率(Precision)、召回率(Recall)、F值(F-Measure)簡介。

ECCV18 | 如何正確使用樣本擴充改進目標檢測效能

眾所周知,在計算機視覺識別任務中,對訓練樣本進行增廣是非常重要的,可以減少過擬合、改進模型泛化效能。 在大多數視覺任務中,對影象進行顏色改變或是增加隨機噪聲等這些通用資料增廣操作,都會改進模型預測能力,但如果能利用特定任務的先驗知識則往往會獲得更大的效能改進。比如在目標

推薦系統評測指標—準確率(Precision)召回率(Recall)F值(F-Measure)_DM

下面簡單列舉幾種常用的推薦系統評測指標: 1、準確率與召回率(Precision & Recall) 準確率和召回率是廣泛用於資訊檢索和統計學分類領域的兩個度量值,用來評價結果的質量。其中精度是檢索出相關文件數與檢索出的文件總數的比率,衡量的是檢索系統的查準率;召

人臉識別常用的效能評價指標

參考連結: 1、https://blog.csdn.net/blueblood7/article/details/41823593 2、https://blog.csdn.net/lijiao1181491631/article/details/54407830?utm_sour

分類和迴歸模型常用的效能評價指標

在預測任務中,給定樣例集 D = { (

Openstack中虛擬機器一些效能評價指標

當我們搭建了一個虛擬化雲平臺(比如openstack)後,我們總是想要不遺餘力的提高虛擬機器的效能。這就需要有一些基準指標。最近research了一些benchmark和測試工具用於描述虛機的效能,以便為以後performance tunning提供依據。目前主要關注ope

Learning to Rank for IR的評價指標MAP,NDCG,MRR

MAP(Mean Average Precision):單個主題的平均準確率是每篇相關文件檢索出後的準確率的平均值。主集合的平均準確率(MAP)是每個主題的平均準確率的平均值。MAP 是反映系統在全部相關文件上效能的單值指標。系統檢索出來的相關文件越靠前(rank 越高),MAP就可能越高。如果系統沒有返回相

IR的評價指標MAP,NDCG,MRR

轉載自:http://www.cnblogs.com/eyeszjwang/articles/2368087.html MAP(Mean Average Precision):單個主題的平均準確率是每篇相關文件檢索出後的準確率的平均值。主集合的平均準確率(MAP)是每個主題的平均準確率的平均值。MAP 是反