1. 程式人生 > >機器學習(周志華) 參考答案 第二章 模型評估與選擇

機器學習(周志華) 參考答案 第二章 模型評估與選擇

機器學習(周志華) 參考答案 第二章 模型評估與選擇

機器學習(周志華西瓜書) 參考答案 總目錄

1.資料集包含1000個樣本,其中500個正例,500個反例,將其劃分為包含70%樣本的訓練集和30%樣本的測試集用於留出法評估,試估算共有多少種劃分方式。

一個組合問題,從500正反例中分別選出150正反例用於留出法評估,所以可能取法應該是(C150500)2種。

2.資料集包含100個樣本,其中正反例各一半,假定學習演算法所產生的模型是將新樣本預測為訓練樣本數較多的類別(訓練樣本數相同時進行隨機猜測),試給出用10折交叉驗證法和留一法分別對錯誤率進行評估所得的結果。

10折交叉檢驗:由於每次訓練樣本中正反例數目一樣,所以講結果判斷為正反例的概率也是一樣的,所以錯誤率的期望是50

%。
留一法:如果留下的是正例,訓練樣本中反例的數目比正例多一個,所以留出的樣本會被判斷是反例;同理,留出的是反例,則會被判斷成正例,所以錯誤率是100%。

3.若學習器A的F1值比學習器B高,試析A的BEP值是否也比B高。

F1值的大小與BEP值並沒有明確的關係。
兩個分類器的F1值得大小與他們的BEP值大小並沒有明確的關係(沒去找)
這道題這裡用反推,設計兩個BEP值相同的分類器,如果他們的F1值不一樣,那麼這道題的結論就是否定的
再加點我看了評論後的疑惑:
BEP值就是F1值嗎?
BEP值是在P=R時取到的,也就是BEP=P=R。如果在計算F時也要定義P=R,那麼F1

Fβ將會恆等於BEP,那麼P,R,F在這裡有什麼意義呢?
這裡分兩種情況:
第一就是我的理解,在計算F1時就是按照分類器真實的分類結果來計算P,R,再根據PR計算F1。當這個分類器正好P=R時,有P=R=BEP=F1。否則BEP的計算不能用當前的PR,而是通過一步一步嘗試到查準率=查全率時,P’=R’=BEP。
第二種就是不存在我下面假設的分類器,分類器始終會在P=R的位置進行截斷(截斷指的是分類器將所有樣本按分為正例的可能性排序後,選擇某個位置。這個位置前面分類為正,後面分類為負)。但是這個可能嗎?這種情況下F1=Fβ=BEP恆成立,分類器的評價本質將會變成了樣本的正例可能性排序,而不是最終的樣本劃分結果。

分類器將所有訓練樣本按自己認為是正例的概率排序,排在越前面分類器更可能將它判斷為正例。按順序逐個把樣本標記為正,當查準率與查全率相等時,BEP=查準率=查全率。當然分類器的真實輸出是在這個序列中的選擇一個位置,前面的標記為正,後面的標記為負,這時的查準率與查全率用來計算F1值。可以看出有同樣的BEP值的兩個分類器在不同位置截斷可能有不同的F1值,所以F1值高不一定BEP值也高。
比如:

1/+ 2/+ 3/+ 4/+ 5/+ 6/- 7/- 8/- 9/- 10/-
1/+ 2/+ 3/+ 4/+ 6/- 5/- 7/- 8/- 9/- 10/-
1/+ 2/+ 3/+ 4/+ 6/+ 5/- 7/- 8/- 9/- 10/-

第一行是真實的測試樣本編號與分類,第二三行是兩個分類器對所有樣本按為正例可能性的排序,以及判斷的結果。顯然兩個分類器有相同的BEP值,但是他們的F1值一個是0.89,一個是0.8

4.試述真正例率(TPR)、假正例率(FPR)與查準率(P)、查全率(R)之間的聯絡。

查全率: 真實正例被預測為正例的比例
真正例率: 真實正例被預測為正例的比例
顯然查全率與真正例率是相等的。
查準率:預測為正例的例項中真實正例的比例
假正例率: 真實反例被預測為正例的比例
兩者並沒有直接的數值關係。

5.試證明(2.22)AUC=1lrank

從書34頁b圖看來,AUC的公式不應該寫的這麼複雜,後來才發現原來這個圖並沒有正例反例預測值相等的情況。當出現這種情況時,ROC曲線會呈斜線上升,而不是這種只有水平和垂直兩種情況。

由於一開始做題時並沒有想過ROC曲線不可以是斜線,所以畫了這張圖,如果不存在正例反例預測值相等的情況,那麼斜線也沒必要存在。
但是在維基百科上看到一副圖,貌似也存在斜線的ROC,但是不知道含義是否和我這裡寫的一樣。
https://en.wikipedia.org/wiki/Receiver_operating_characteristic
引用一幅有斜線的ROC曲線
這裡寫圖片描述

BEP一樣,學習器先將所有測試樣本按預測概率排序,越可能是正的排在越前面。然後依次遍歷,每掃描到一個位置,裡面如果只有正例,則ROC曲線垂直向上,如果只有反例,曲線水平往右,如果既有正例也有反例,則斜向上。如圖所示
ROC曲線
由於TPRFPR的分母是常數,所以這裡按比例擴大了座標(分別是真實正例和真實反例的數目倍),可以更好看出曲線走勢。

可以看出一共有20個測試樣本,10個正,10個反。學習器排序的結果是
+,,(+,+),(+,),(+,),(+,+),(,),(+,+),(,,),+,。其中括號內的樣本排在相同的位置。
<(+,+,,)(+,),(+,)是同樣的效果>

公式2.21累加了所有不在正例的反例數目,其中同樣的位置標記為0.5,在正例前面標記為1。從圖中可以看出,折線每次向右(右上)延伸,表示掃描到了反例,折線上方對應的面積,就是該反例後面有多少個正例,每個正例是一個正方形,對應的面積是1。同位置上的正例是個三角形,對應的面積是0.5。計算出總面積後,由於ROC圖的座標是歸一化的,所以總面積要除以一開始放大的倍數,也就是m+m

6.試述錯誤率與ROC曲線之間的關係

ROC曲線每個點對應了一個TPRFPR,此時對應了一個錯誤率。
Ecost=(m+(1TPR)cost01+mFPRcost10)/(m++m)
學習器會選擇錯誤率最小的位置作為截斷點。

7.試證明任意一條ROC曲線都有一條代價曲線與之對應,反之亦然。

由定義可以知道TPRFPR都是由0上升到1,那麼FNR則是由1下降到0
每條ROC曲線都會對應一條代價曲線,由於第一條代價線段的是(0,0),(1,1),最後是(0,1)(1,0),
所有代價線段總會有一塊公共區域,這個區域就是期望總體代價,而這塊區域的邊界就是代價曲線,且肯定從(0,0)(1,0)
在有限個樣本情況下,ROC是一條折線,此時根據代價曲線無法還原ROC曲線。但若是理論上有無限個樣本,ROC是一條連續的折線,代價曲線也是連續的折線,每個點的切線可以求出TPRFNR,從而得到唯一的ROC曲線。

8.Min-Max規範化與z-score規範化如下所示。試析二者的優缺點。

Minmax規範化方法簡單,而且保證規範化後所有元素都是正的,每當有新的元素進來,只有在該元素大於最大值或者小於最小值時才要重新計算全部元素。但是若存在一個極大(小)的元素,會導致其他元素變的非常小(大)。
zscore標準化對個別極端元素不敏感,且把所有元素分佈在0的周圍,一般情況下元素越多,0周圍區間會分佈大部分的元素,每當有新的元素進來,都要重新計算方差與均值。

9.試述卡方檢驗過程。

略(……)

10.試述在使用Friedman檢驗中使用式(2.34)與(2.35)的區別

書上說Friedman檢驗,在Nk比較大時,平均序值ri近似於正態分佈,均值為k+12,
方差為k2112(其實我覺得ri的方差是k2112N)。

即:ri~N(k+12,k2112)

所以12Nk21(rik+12)2~χ2(1)

統計量12Nk21k(rik+12)2由於k個演算法的平均序值ri是有關聯的,知道其中k1個就能推出最後一個,所以自由度為k1,在前面乘上k1k,最終得到Friedman統計量為
fri=k1k12Nk21k(rik+12)2

猜測:由於Friedman統計量只考慮了不同演算法間的影響,而沒去考慮不同資料集(其他方差)所帶來的影響,所以書上說這個Friedman統計量太保守。
對序值表做方差分析:
總方差SST=N(E(X2)(EX)2)=Nk(k21)/12自由度N(k1)
演算法間方差SSA=Nk(rik+12)2 自由度

相關推薦

機器學習() 參考答案 第二 模型評估選擇

機器學習(周志華) 參考答案 第二章 模型評估與選擇 機器學習(周志華西瓜書) 參考答案 總目錄 1.資料集包含1000個樣本,其中500個正例,500個反例,將其劃分為包含70%樣本的訓練集和30%樣本的測試集用於留出法評估,試估算共有多少種

()讀書筆記 -- 第二 模型評估選擇

隨手記下所學知識,很多圖表來自原書,僅供學習使用! 2.1  經驗誤差與過擬合 通常,我們使用"錯誤率"來表示分類中錯誤的樣本佔總樣本的比例.如果m個樣本中有a個錯誤樣本則錯誤率E=a/m ,對應的,

機器學習() 參考答案 第一 緒論

機器學習(周志華) 參考答案 第一章 緒論 機器學習(周志華西瓜書) 參考答案 總目錄 1.表1.1中若只包含編號為1,4的兩個樣例,試給出相應的版本空間。 假設空間指的是問題所有假設組成的空間,我們可以把學習過程看作是在假設空間中搜索的過程,

機器學習() 參考答案 第一 緒論 1.2

機器學習(周志華) 參考答案 第一章 緒論 1.2 機器學習(周志華西瓜書) 參考答案 總目錄 機器學習(周志華) 參考答案 第一章 緒論 2.與使用單個合取式來進行假設表示相比,使用“析合正規化”將使得假設空間具有更強的表示能力。若使用

機器學習() 參考答案 第十六 強化學習

機器學習(周志華西瓜書) 參考答案 總目錄 是時候讓自己的機器更強大一些了,順便完結撒花 1.用於K-搖臂賭博機的UCB方法每次選擇Q(k)+UC(k)的最大的搖臂,其中Q(k)為搖臂k當前的平均獎賞,UC(k)為置信區間。例如Q(k)

機器學習() 參考答案 第三 線性模型 3.3

一:matlab實現 1.資料的Excel處理 西瓜資料集3.0 2.程式碼 # -*- coding: utf-8 -*- old_l = 0; n = 0; b = [0;0;1]; %對應書中(3.25)下的B=(w;b),因為x有兩個屬性:

機器學習() 參考答案 第十四 概率圖模型

機器學習(周志華西瓜書) 參考答案 總目錄 1.試用盤式記法表示條件隨機場和樸素貝葉斯分類器。 條件隨機場: 這樣畫的問題在於無法表示N個y之間的關係,到底怎麼畫我也不知道。 樸素貝葉斯分類器:y依賴於所有的變數x 2.證明

機器學習() 參考答案 第四 決策樹 python重寫版畫樹演算法

機器學習(周志華西瓜書) 參考答案 總目錄 機器學習(周志華) 參考答案 第四章 決策樹 3.試程式設計實現基於資訊熵進行劃分選擇的決策樹演算法,併為表4.3中資料生成一棵決策樹。 最近在學著用python,所以用py重寫了以前的決策樹程式碼,

機器學習() 參考答案 第十五 規則學習

機器學習(周志華西瓜書) 參考答案 總目錄 好忙啊好忙啊好忙啊,這章和我的研究方向關係不大,暫時先偷工減料一下下。 1.對西瓜資料集2.0,允許使用否定形式的文字,試基於自頂向下的策略學出命題規則集。 1,2題共同的問題是,如

機器學習--(第1

第1章 緒論 符號學習--->統計機器學習 機器學習中代數一般是作為基礎工具來使用 總結:出頭露面的是概率和統計,埋頭苦幹的是代數和邏輯。 機器學習是關於在計算機上從資料中產生“模型”的演算法,即學習演算法。 學得模型對應了關於資料的某種潛在的規律,因此亦稱“假設”。這

機器學習.《14 概率圖模型

目錄思維導圖轉載自:https://blog.csdn.net/liuyan20062010/article/details/72842007匯入:機器學習的核心價值觀:根據一些已觀察到的證據來推斷未知。其中基於概率的模型將學習任務歸結為計算變數的概率分佈;生成式模型:先對聯

機器學習總結之第二模型評估選擇

概率密度函數 列聯表 ext 5.1 ima 其中 bsp 泛化能力 分解 機器學習總結之第二章模型評估與選擇 2.1經驗誤差與過擬合 錯誤率 = a個樣本分類錯誤/m個樣本 精度 = 1 - 錯誤率 誤差:學習器實際預測輸出與樣本的真是輸出之間的差異。 訓練誤差:即

西瓜書讀書筆記:第二 模型評估選擇

2.1經驗誤差與過擬合 錯誤率:分類錯誤的樣本數佔樣本總數的比例 精度accuracy:1-錯誤率 誤差:學習器的實際預測輸出與樣本的真實輸出之間的差異 訓練誤差training error/經驗誤差empirical error:學習器在訓練集上的誤差 泛化誤差:

機器學習(西瓜書) 參考答案 總目錄

機器學習(周志華西瓜書)參考答案總目錄 從剛開始學習機器學習到現在也有幾個月了,期間看過PDF,上過MOOC,總感覺知道一點了又不是特別明白,最後趁某東買書大減價弄了幾本相關的書來看看,其中一本就是西瓜書。一口氣看了前10章,感覺每章內容都很少,看完感覺還是和以前一樣。

機器學習(西瓜書) 參考答案 總目錄 轉載至https://blog.csdn.net/icefire_tyh/article/details/52064910

機器學習(周志華西瓜書)參考答案總目錄 從剛開始學習機器學習到現在也有幾個月了,期間看過PDF,上過MOOC,總感覺知道一點了又不是特別明白,最後趁某東買書大減價弄了幾本相關的書來看看,其中一本就是西瓜書。一口氣看了前10章,感覺每章內容都很少,看完感覺還是和

機器學習--課後習題答案5.5

5.5 試程式設計實現標準BP演算法和累計BP演算法,在西瓜資料集3.0上分別用這兩個演算法訓練一個單隱層網路,並進行比較。 通過程式設計實踐發現,在本例下要達到某一限定的均方誤差時,標準BP演算法比累積BP演算法明顯收斂更快,特別在本例中,將ABP演算法誤差設定到0.0

機器學習--課後習題答案-線性模型

3.1試分析在什麼情況下,在以下式子中不比考慮偏置項b。答:線上性迴歸中,所有引數的確定都是為了讓殘差項的均值為0且殘差項的平方和最小。在所有其他引數項確定後,偏置項b(或者說是常數項)的變化體現出來的就是擬合曲線的上下整體浮動,可以看做是其他各個解釋變數留下的bias的線性

機器學習----課後習題3.3答案

LR實現,訓練集和測試集都是書上給的西瓜資料集3.0α,用keras實現程式碼如下: # coding: utf-8 """ 使用keras實現logistic分類器 """ import os import gzip import urllib im

機器學習-,習題1.1,答案探究

1.1版本空間 1.2 感覺上,可能的假設應當就是不同的版本空間,則對應瞭如圖1.2的3種版本空間 1.3 看不懂題目意思。設定閾值,或者排除異類後,按優先順序具有偏好。 1.4 不能理解,等回過頭來再看這題吧。

機器學習--第一

緒論 1.1 引言 什麼是機器學習? 它是一門致力於研究如何通過計算的手段,利用經驗來改善系統自身效能的一門學科。所研究的主要內容是計算機如何通過資料產生模型,即學習演算法。有了學習演算法後,當我們給它提供經驗資料時就能基於這些資料產生模型。在面對新資料時學習演算法會給我們相應的判斷。經驗通常以資料的形