1. 程式人生 > >轉載 Recall(召回率);Precision(準確率);F1-Meature(綜合評價指標)

轉載 Recall(召回率);Precision(準確率);F1-Meature(綜合評價指標)

原文:http://blog.csdn.net/t710smgtwoshima/article/details/8215037 Recall(召回率);Precision(準確率);F1-Meature(綜合評價指標);     在資訊檢索(如搜尋引擎)、自然語言處理和檢測分類中經常會使用這些引數,介於語言翻譯上的原因理解難免出現誤差,下面介紹下自己對他們的理解。 首先來個定義: Precision:被檢測出來的資訊當中 正確的或者相關的(也就是你想要的)資訊中所佔的比例; Recall:所有正確的資訊或者相關的資訊(wanted)被檢測出來的比例。 F1-Meature後面定義。 查了資料都習慣使用四格圖來解釋,來個易懂的四格圖:
正確的、相關的(wanted) 不正確的、不相關的
檢測出來的
true  positives (納真tp)
false  positives(納偽fp)
未檢測出來的
false  negatives(去真fn)
true  negatives  (去偽tn)
表格中的翻譯比較重要,可以幫助理解。 true positives (納真)    false positives(納偽) false negatives(去真)true negatives  (去偽) 其中false positives(納偽)也通常稱作誤報,false negatives也通常稱作漏報!
Precision =   tp/(tp + fp); Recall = tp / (tp + fn). 同樣還有另外兩個定義
\mbox{True Negative Rate}=\frac{tn}{tn+fp} \,
\mbox{Accuracy}=\frac{tp+tn}{tp+tn+fp+fn} \,

然而在實際當中我們當然希望檢索的結果P越高越好,R也越高越好;事實上這兩者在某些情況下是矛盾的。比如,我們只搜出了一個結果,且是準確的,那麼P就是100%,但是R就很低;而如果我們把所有結果都返回,那麼必然R是100%,但是P很低。因此在不同的場合中需要自己判斷希望P比較高還是R比較高。如果是做實驗,可以繪製Precision-Recall曲線來幫助分析。

F-Measure是Precision和Recall加權調和平均:
F = \frac{(a^2+1)P*R} {a^2(P+R)} \hfill (3)

當引數a=1時,就是最常見的F1了:


F1 = \frac{2PR} {P+R} \hfill (4)

很容易理解,F1綜合了P和R的結果,當F1較高時則比較說明實驗方法比較理想。