1. 程式人生 > >weka使用教程3--對分類結果進行分析

weka使用教程3--對分類結果進行分析

1 Summary

Correctly Classified Instances :正確分類的例項 Incorrectly Classified Instances :錯誤分類的例項 Kappa statistic:就是假設有兩個相互獨立的人分別將N個物品分成C個相互獨立的類別,如果雙方結果完全一致則K值為1,反之K值為0; Mean absolute error :就是把N次實驗的絕對誤差求和,然後除以實際值與均值之差的求和. 此值越小實驗越準確. Root mean squared error:即均方根誤差,是用來衡量樣本的離散程度的.也就是將N次實驗中的實驗值與平均值之差求和,除以實驗次數,再把商開根號. Relative absolute error  :就是把N次實驗的絕對誤差求和,然後除以實際值與均值之差的求和. 此值越小實驗越準確. Root relative squared error :上面的做完再開根號... Total Number of Instances :樣本總數

2 Detailed Accuracy By Class

TP Rate :True Positive,被判定為正樣本,事實上也是證樣本。

FP Rate :False Positive,被判定為正樣本,但事實上是負樣本。

Precision  :即在檢索後返回的結果中,真正正確的個數佔整個結果的比例。precesion = TP/(TP+FP) 。

Recall   :即在檢索結果中真正正確的個數 佔整個資料集(檢索到的和未檢索到的)中真正正確個數的比例。recall = TP/(TP+FN)即,檢索結果中,你判斷為正的樣本也確實為正的,以及那些沒在檢索結果中被你判斷為負但是事實上是正的(FN)。

F-Measure  :是Precision和Recall加權調和平均P和R指標有時候會出現的矛盾的情況,這樣就需要綜合考慮他們,最常見的方法就是F-Measure(又稱為F-Score)。

MCC  :   

ROC Area:  ROC曲線下方的面積(Area Under the ROC Curve, AUC)提供了評價模型平均效能的另一種方法。如果模型是完美的,那麼它的AUC = 1,如果模型是個簡單的隨機猜測模型,那麼它的AUC = 0.5,如果一個模型好於另一個,則它的曲線下方面積相對較大

PRC Area:

3 Confusion Matrix

第一行 :565個a正確分類 135個a錯誤分成了b

第二行:168個b錯誤分成了a 532個正確分類