機器學習基礎(五十三)—— 精確率與召回率(多分類問題精確率和召回率的計算)
精確率(precision),召回率(recall)由混淆矩陣(confusion matrix)計算得來。
在資訊檢索中,精確率通常用於評價結果的質量,而召回率用來評價結果的完整性。
實際上,精確度(precision)是二元分類問題中一個常用的指標。
精確度就是標記為“正”,而確實是”正“的樣本佔所有標記為“正”的樣本的比例。
和精確率一起出現的還有另一個指標召回率(recall),
- 在所有預測為正的樣本中,確實為正的比例;
- 本身為正的樣本中,被預測為正的比例
例如,假設資料集有 50 個樣本,其中20個為正。分類器將 50 個樣本中的 10 個標記為“正”(TP+FP=10),在這10個被標記為“正”的樣本中,只有 4 個確實是“正“(TP=4),所以這裡的精確度為 4/10 = 0.4,召回率為 4/20 = 0.2.
我麼也可將這些概念,應用多分類問題,把每個類別單獨視為”正“,所有其它型別視為”負“,考慮如下的混淆矩陣:
M = [
[14371, 6500, 9, 0, 0, 2, 316],
[5700, 22205, 454, 20, 0, 11, 23],
[0, 445, 3115, 71, 0, 11, 0],
[0, 0, 160, 112, 0, 0, 0],
[0, 888, 39, 2, 0, 0, 0],
[0, 486, 1196, 30, 0, 74, 0],
[1139, 35, 0, 0, 0, 0, 865]
]
分別計算各個類別的精確率與召回率:
n = len(M)
for i in range(n):
rowsum, colsum = sum(M[i]), sum(M[r][i] for r in range(n))
try:
print 'precision: %s' % (M[i][i]/float(colsum)), 'recall: %s' % (M[i][i]/float(rowsum))
except ZeroDivisionError:
print 'precision: %s' % 0, 'recall: %s' %0
相關推薦
《Python機器學習基礎教程》PDF高清完整版-免費下載(資源共享)
Python機器學習基礎教程-[德] 安德里亞斯·穆勒(Andreas C.Müller)[美]莎拉·吉多(Sarah Guido) 著,張亮(hysic) 譯 《Python機器學習基礎教程》PDF高清完整版-免費下載 《Python機器學習基礎教程》PDF高清完整版-免費下載 下載地址1:網盤下
機器學習基礎(五十三)—— 精確率與召回率(多分類問題精確率和召回率的計算)
精確率(precision),召回率(recall)由混淆矩陣(confusion matrix)計算得來。 在資訊檢索中,精確率通常用於評價結果的質量,而召回率用來評價結果的完整性。 實際上,精確度(precision)是二元分類問題中一個常用的指
機器學習基礎(五十八)—— 夏農熵 相對熵(KL散度)與交叉熵
分享一下我老師大神的人工智慧教程!零基礎,通俗易懂!http://blog.csdn.net/jiangjunshow 也歡迎大家轉載本篇文章。分享知識,造福人民,實現我們中華民族偉大復興!  
機器學習基礎(四十三)—— kd 樹( k 近鄰法的實現)
實現 k 近鄰法時,主要考慮的問題是如何對訓練資料進行快速 k 近鄰搜尋,這點在如下的兩種情況時,顯得尤為必要: (1)特徵空間的維度大 (2)訓練資料的容量很大時 k 近鄰法的最簡單的實現是現行掃描(linear scan),這時需計算輸入例項與每一個
深度學習(花書)讀書筆記——第五章-機器學習基礎
深度學習是機器學習的一個特定分支。我們要想充分理解深度學習,必須對機器學習的基本原理有深刻的理解。5.1 學習演算法機器學習演算法是一種能夠從資料中學習的演算法。然而,我們所謂的 ‘學習’ 是什麼意思呢?Mitchell (1997) 提供了一個簡潔的定義:‘‘對於某類任務
機器學習基礎(三十五)—— 協同過濾(從匹配使用者到匹配商品)
考慮如下的使用者對影片的打分,由巢狀字典定義: critics = {'Lisa Rose': {'Lady in the Water': 2.5, 'Snakes on a Plane': 3.5, 'J
機器學習基礎(五十七)—— 監督學習、無監督學習
僅使用 inputs x(t) 用於學習: automatically extract meaningful features for your data leverage the availabi
機器學習基礎(十五)—— blending
base algorithm vs meta-algorithm(建立在其他演算法基礎之上的演算法):這是隻有整合學習才有的一對概念; uniform blending: (1)blending:
機器學習基礎(六)—— 交叉熵代價函式(cross-entropy error)
分享一下我老師大神的人工智慧教程!零基礎,通俗易懂!http://blog.csdn.net/jiangjunshow 也歡迎大家轉載本篇文章。分享知識,造福人民,實現我們中華民族偉大復興!  
TensorFlow系列專題(二):機器學習基礎
歡迎大家關注我們的網站和系列教程:http://www.tensorflownews.com/,學習更多的機器學習、深度學習的知識! 目錄: 資料預處理 歸一化 標準化 離散化 二值化 啞編碼
TensorFlow系列專題(一):機器學習基礎
歡迎大家關注我們的網站和系列教程:http://www.tensorflownews.com/,學習更多的機器學習、深度學習的知識! 一.人工智慧發展 1956年的8月,美國達特茅斯學院(Dartmouth College)舉行了一次研討會,這次會議由約翰[圖片上傳失敗...(ima
機器學習基礎概念(一)
“無監督學習”是指人們在獲得訓練的向量資料後在沒有標籤的情況下嘗試找出其內部蘊含關係的一種挖 掘工作,這個過程中使用者除了可能要設定一些必要的超引數( hyper-parameter)以外,不 用對這些樣本做任何的標記甚至是過程干預; “有監督學習”與此不同,每一個樣本都有著 明確的標籤,最
機器學習基礎知識(二)
深度神經網路: 深度學習實際指的是基於深度神經網路( deep neural networks, DNN)的 學習,也就是深度人工神經網路所進行的學習過程,或稱作 Deep Learning。 這個 Deep 指 的是神經網路的深度(層數多)。 T
Python機器學習基礎教程筆記(一)
description: 《Python機器學習基礎教程》的第一章筆記,書中用到的相關程式碼見github:https://github.com/amueller/introduction_to_ml_with_python ,筆記中不會記錄。 為何選擇機器學習 人為制訂決
機器學習基礎--概率論與數理統計(已學習到P65)(忘記的東西都在這)
1、條件概率 2、全概率公式 條件:B1,B2,B3...Bn是總體S的一個劃分,即 且 3
小白機器學習基礎演算法學習必經之路(上)
常見的機器學習演算法 以下是最常用的機器學習演算法,大部分資料問題都可以通過它們解決: 1.線性迴歸 (Linear Regression) 2.邏輯迴歸 (Logistic Regression) 3.決策樹 (Decision Tree) 4.支援向量機(SVM) 5.樸素貝葉斯
小白機器學習基礎演算法學習必經之路(下)
我們在上文小白機器學習基礎演算法學習必經之路(上)簡述了線性迴歸 (Linear Regression) ,邏輯迴歸 (Logistic Regression) ,決策樹 (Decision Tree) ,支援向量機(SVM) ,樸素貝葉斯 (Naive Bayes) 現在我們接著繼續學習另五個演算法: &
機器學習基礎--math(9)--均方根誤差RMSE
均方根誤差(RMSE,root-mean-square error) 均方根誤差為了說明樣本的離散程度。 做非線性擬合時,RMSE越小越好。 標準差與均方根誤差: 標準差是用來衡量一組數自身的離散程度,而均方根誤差是用來衡量觀測值同真值之
HTML5基礎加強css樣式篇(伸縮容器屬性:flex-direction, flex-wrap,flex-flow,align-items,align-content)(五十三)
1.justify-content 屬性詳見(五十二)2.flex-direction:row || row-reverse || column || column-reverse //設定主軸的方向row:預設:row 反向設定主軸方向:column :主軸方向設定為縱軸方
機器學習基礎(二)——詞集模型(SOW)和詞袋模型(BOW)
(1)詞集模型:Set Of Words,單詞構成的集合,集合自然每個元素都只有一個,也即詞集中的每個單詞都只有一個 (2)詞袋模型:Bag Of Words,如果一個單詞在文件中出現不止一次,並統計