1. 程式人生 > >周志華西瓜書《機器學習》第三章線性模型

周志華西瓜書《機器學習》第三章線性模型

又好像很久更新了,但這幾天我都有在學習哦~。一位同學和我說感覺我的筆記很多是對書本原文的再現,缺少自己的思考和重點提煉。我反思了一下好像真的是這樣的呢,這樣子寫似乎的確是和原文沒有多大的區別(而且敲那麼多字非常的累)。
所以從這篇筆記開始我會挑選書中的重點來記錄啦,對於個別比較難理解的公式也會單獨拿出來推導,不再把時間花在重複勞動上。
在寫文章方面我只是一個小白,希望大家多多包涵。

3.1基本形式

對於一個物體,線性模型通過學得各個屬性的線性組合來對其進行預測:
f

( x ) = w 1 x 1
+ w 2 x 2 + w 3
x 3 + . . . + w d x d + b f\left ( x \right )=w_{1}x_{1}+w_{2}x_{2}+w_{3}x_{3}+...+w_{d}x_{d}+b
上式可以用向量形式 f ( x ) = w T x + b f\left ( x \right )=w^{T}x+b 來進行簡單表示。

當我們學習得到 w = ( w 1 ; w 2 ; w 3 . . . ; w d ; ) w=\left ( w_{1}; w_{2}; w_{3}...; w_{d};\right ) b b 之後便可以將模型確定下來。

  • 線性模型的應用範圍比較有限,但我們可以在這幾個基礎上通過層級結構或高維對映得到功能更為強大的非線性模型。
  • 線上性模型中, w w 直觀表達了各屬性在預測中的重要性,因此線性模型有很好的可解釋性(comprehensibility) 。

3.2 線性迴歸

我們可以使用"線性迴歸" (linear regression)來學得一個模型從而對預測值做出準確的預測輸出標記。

線上性迴歸中,我們試圖學得: f ( x ) = w T x + b y i f\left ( x \right )=w^{T}x+b\cong y_{i} 。在這裡我們用均方誤差來進行效能度量,直接讓均方誤差最小化便可求得結果。即:
在這裡插入圖片描述

我們求解 w w b b E ( w , b ) = i = 1 m ( y i w x i b ) 2 E_{\left ( w,b \right )}=\sum_{i=1}^{m}\left ( y_{i}-wx_{i}-b \right )^{2} 實現最小值,這個過程可以通過對 w w b b 求導來實現:
在這裡插入圖片描述
讓兩者分別為0便可以求得 w w b b 的最優解:
在這裡插入圖片描述
在這裡插入圖片描述

對於有多個屬性的情況,我們可以用多元線性迴歸來實現問題的求解,將資料集用一個矩陣X來進行表示:
在這裡插入圖片描述
資料集的標記我們也可以用向量形式 y = ( y 1 ; y 2 ; . . . ; y m ; ) y=\left ( y_{1}; y_{2};...;y_{m};\right ) 來表示,從而可以得到和單屬性相似的結果:
在這裡插入圖片描述

在上文部分,我們實現了單屬性和多屬性的線性迴歸推導,但在我們的實際生活中,線性迴歸的應用場景並不是那麼常見,我們可以通過加一層對映來實現對y“衍生物”的逼近。

x x y y 的實際對映為指數函式,我們令 y = l n y y^{`}=lny ,那麼x到 y y^{`} 的對映就變成了線性函式,我們可以繼續用剛才講過的那一部分知識來分析問題。得到 l n y = w T x + b lny=w^{T}x+b

上式形式上仍然是線性迴歸,但是在實質上已經是在求解輸入空間到輸出空間的非線性函式對映。這裡的對數函式起到了將線性迴歸模型的預測值和真實標記聯絡起來的作用。
在這裡插入圖片描述

更一般的,我們通過引入單調可微函式g(`)得到廣義線性模型:
y = g 1 ( w T x + b ) y=g^{-1}\left ( w^{T}x+b \right )

3.3對數機率迴歸

這裡我們首先要注意的是對數機率迴歸是用於處理分類問題嗎,不是迴歸問題。

我們通過一個單調可微函式將分類任務的真實標記 y y 與線性迴歸模型的預測值聯絡起來。
在這裡插入圖片描述
因為單位階躍函式不連續,所以我們用對數機率函式來進行替代:
y = 1 1 + e z y=\frac{1}{1+e^{-z}} ,將對數機率函式作為我們之前提出的可微函式g(·),得:
y = 1 1 + e ( w T x + b ) y=\frac{1}{1+e^{-\left ( w^{T}x+b \right )}}
上式可以推導為: l n y 1 y = w T + b ln\frac{y}{1-y}=w^{T}+b

其中我們把 y y 看做是正例的可能性, 1 y 1-y 看成是反例的可能性,則=兩者的比值 y 1 y \frac{y}{1-y} 稱為機率,反映了 x x 作為正例的相對可能性對機率取對數則得到"對數機率": l n y 1 y ln\frac{y}{1-y}

接下來,我們就可以用“極大似然法”來對 w w b

相關推薦

西瓜機器學習線性模型

又好像很久更新了,但這幾天我都有在學習哦~。一位同學和我說感覺我的筆記很多是對書本原文的再現,缺少自己的思考和重點提煉。我反思了一下好像真的是這樣的呢,這樣子寫似乎的確是和原文沒有多大的區別(而且敲那麼多字非常的累)。 所以從這篇筆記開始我會挑選書中的重點來記錄啦,對於個別比較難理解

機器學習西瓜)》學習筆記1:-線性模型

一、線性迴歸     線性迴歸的基本思想是採用對輸入樣例各個特徵進行線性加權的方式得到預測的輸出,並將預測的輸出和真實值的均方誤差最小化。1)如果輸入樣例只有一個特徵,那這個過程就是用一條直線去擬合平面直角座標系上的點; 2)如果有兩個特徵,表現在平面直角座標系上就是用一條

python實現西瓜機器學習》習題3.5LDA判別

本題感謝大神 https://blog.csdn.net/Snoopy_Yuan/article/details/64443841 #抄https://blog.csdn.net/Snoopy_Yuan/article/details/64443841 import numpy as n

python實現西瓜機器學習》習題3.4 對比10折交叉驗證和留一法的對率迴歸錯誤率

這道題仍然在抄大神程式碼的基礎上寫註釋,首先感謝原始碼: https://blog.csdn.net/Snoopy_Yuan/article/details/64131129 感想是:sklearn是個好東西,如果沒有現成的驗證方法,光是10折驗證就要造10個表格才行,而用現成的庫,一

python實現西瓜機器學習》習題3.3對數機率迴歸

python小白入手,第一個程式。 首先感謝大牛的原始碼: https://blog.csdn.net/onthewaygogoing/article/details/68485682 大牛的思路很巧妙,把矩陣操作轉化成列表操作,時刻保證列表代表的矩陣維度一致。 我

西瓜 16 強化學習(習題答案)(轉)

  原文轉自: https://blog.csdn.net/icefire_tyh/article/details/53691569                  

機器學習》()西瓜讀書筆記(完結)

《機器學習》(周志華)西瓜書讀書筆記(完結) 閱讀目錄  第1章 緒論 第2章 模型評估與選擇 第3章 線性模型 第4章 決策樹 第5章 神經網路 第6章 支援向量機 第7章

西瓜機器學習筆記》學習筆記第二模型的評估與選擇》

本章是西瓜書的第二章,周志華老師在這一部分基礎對機器學習中的基礎知識進行介紹,主要闡述了誤差、過擬合的相關概念和模型的評估度量方法。 博主在今年元旦之後就要正式開始做畢業設計了,所以我會努力在今年元旦假期結束之前把西瓜書的所有內容更新。也希望大家可以監督我嘻嘻。 一、經驗誤

西瓜機器學習筆記》學習筆記第一《緒論》

最近在幫學弟做一個關於OCR的專案,所以這幾個星期都沒有在CSDN上更新文章。今天登入後發現有還幾個小夥伴關注我了,很開心~。我會繼續在CSDN上更新一些內容,總結自己每個階段的學習情況。 周志華老師的西瓜書堪稱學習機器學習的必備書籍,很多學生包括我自己都是從這本書開始接觸機器學習。

機器學習(西瓜) 參考答案 總目錄

機器學習(周志華西瓜書)參考答案總目錄 從剛開始學習機器學習到現在也有幾個月了,期間看過PDF,上過MOOC,總感覺知道一點了又不是特別明白,最後趁某東買書大減價弄了幾本相關的書來看看,其中一本就是西瓜書。一口氣看了前10章,感覺每章內容都很少,看完感覺還是和以前一樣。

機器學習》()西瓜讀書筆記

回到頂部 第1章 緒論對於一個學習演算法a,若它在某問題上比學習演算法b好,則必然存在另一些問題,在那裡b比a好.即"沒有免費的午餐"定理(No Free Lunch Theorem,NFL).因此要談論演算法的相對優劣,必須要針對具體的學習問題回到頂部第2章 模型評估與選擇

機器學習(西瓜) 參考答案 總目錄 轉載至https://blog.csdn.net/icefire_tyh/article/details/52064910

機器學習(周志華西瓜書)參考答案總目錄 從剛開始學習機器學習到現在也有幾個月了,期間看過PDF,上過MOOC,總感覺知道一點了又不是特別明白,最後趁某東買書大減價弄了幾本相關的書來看看,其中一本就是西瓜書。一口氣看了前10章,感覺每章內容都很少,看完感覺還是和

機器學習學習筆記 線性模型(課後習題)python 實現

線性模型 一、內容 1.基本形式 2.線性迴歸:均方誤差是迴歸任務中最常用的效能度量 3.對數機率迴歸:對數機率函式(logistic function)對率函式是任意階可導的凸函式,這是非常重要的性質。 4.線性判別分析(LDA 是一種降維的方法) 5.多分類學習:

機器學習() 參考答案 線性模型 3.3

一:matlab實現 1.資料的Excel處理 西瓜資料集3.0 2.程式碼 # -*- coding: utf-8 -*- old_l = 0; n = 0; b = [0;0;1]; %對應書中(3.25)下的B=(w;b),因為x有兩個屬性:

西瓜筆記——第一

1.1引言 概念1:基於經驗做出的預判 機器學習定義:通過計算手段,利用經驗資料產生模型用於改善系統自身效能。 更形式化的定義:假設用P 來評估計算機在某任務類T上的效能,若一個程式通過利用經驗E在T中任務上獲得了效能上的改善,就說關於T,P,該程式對E進行了學習。 1

機器學習定義及基本術語(根據的《機器學習》概括)

機器學習的定義 機器學習是這樣一門學科:通過計算的手段,學習經驗(也可以說是利用經驗)來改善系統的效能。 在計算機系統中,經驗(Experience)通常是資料(Data);學習演算法(Learning algorithm)學習產生數學模型(Model),不

機器學習 (南京大學的《機器學習》和李航的《統計學習方法》)

機器學習的三種不同方法: 一、監督學習(supervised learning)——對未來事件進行預測。使用有類標的資料構建資料模型。然後使用經訓練得到的模型對未來的資料進行預測。 主要分為兩類: 1.利用分類對類標進行預測 2.使用迴歸預測連續輸出值 二、無監

機器學習

1.線性模型的基本形式(P53)        給定d個屬性描述,預測函式如下形式          一般向量形式                                                                             

機器學習筆記( 線性模型

3.1 基本形式 樣本x由d個屬性描述 x= (x1; x2;…; xd), 線性模型試圖學得一個通過屬性的線性組合來進行預測的函式: 向量形式: w和b學得之後,模型就得以確定. 3.2 線性迴歸 線性迴歸試圖學得 為確定w,b,學習到泛化效能最好的模型

小白學習機器學習---(2):對數機率迴歸python實現

上程式碼~~~~~~~~###梯度下降法實現多元線性迴歸 def loadDataSet(): ###資料匯入函式### dataMatrix=[] #資料矩陣,第一列是w=1.0,第2,3列是特徵 labelMatrix=[] #標籤矩陣