1. 程式人生 > >機器學習效能度量指標:ROC曲線、查準率、查全率、F1

機器學習效能度量指標:ROC曲線、查準率、查全率、F1

錯誤率

在常見的具體機器學習演算法模型中,一般都使用錯誤率來優化loss function來保證模型達到最優。
\[錯誤率=\frac{分類錯誤的樣本}{樣本總數}\]
\[error_rate=\frac{1}{m} \sum_{i=1}^{m} I(f(x_{i})\neq y_{i})\]

但是錯誤率有一個嚴重的缺點:
錯誤率會掩蓋樣本如何被錯誤分類事實,這樣對於有的問題很難進行下一步的分析

混淆矩陣 confusion matrix

真正例: True Positive
真反例: True Negative
假正例: False Positive
假反例: False Negative

下面是一個二分類的混淆矩陣:

真實 預測 結果
情況 正例 反例
正例 TP(真正) FN(假反)
反例 FP(假正) TN(真反)

查準率(正確率):
\[precision=\frac{真正正確的個數}/{分類中正確的個數}\]
\[P=\frac{TP}{TP+FP}\]

查全率(召回率):
\[recall=\frac{預測為正確的個數}{真實情況正確的個數}\]
\[R=\frac{TP}{TP+FN}\]