分類-3-生成學習-2-高斯判別分析、協方差
多元高斯分佈
多變數高斯分佈描述的是 n維隨機變數的分佈情況,這裡的
begin-補充-協方差和協方差矩陣:
協方差
在概率論和統計學中,協方差用於衡量兩個變數的總體誤差。而方差是協方差的一種特殊情況,即當兩個變數是相同的情況。
期望值分別為E[X]與E[Y]的兩個實隨機變數X與Y之間的協方差Cov(X,Y)定義為:
顯然,當X=Y時就是方差啦。
從直觀上來看,協方差表示的是兩個變數總體誤差的期望。
如果兩個變數的變化趨勢一致,也就是說如果其中一個大於自身的期望值時另外一個也大於自身的期望值,那麼兩個變數之間的協方差就是正值;如果兩個變數的變化趨勢相反,即其中一個變數大於自身的期望值時另外一個卻小於自身的期望值,那麼兩個變數之間的協方差就是負值。
如果X與Y是統計獨立的,那麼二者之間的協方差就是0,因為兩個獨立的隨機變數滿足E[XY]=E[X]E[Y],因此協方差為0的兩個隨機變數稱為是不相關的
關於協方差還有以下定義:
協方差矩陣:
分別為
多元高斯分佈
多變數高斯分佈描述的是 n維隨機變數的分佈情況,這裡的μ變成了向量, σ也變成了矩陣Σ。寫作N(μ,Σ)。其中Σ(協方差矩陣)是一個半正定的矩陣,μ是高斯分佈的均值,下面給出它的概率密度函式:
begin-補充-協方差和協方差矩
高斯判別分析(Gaussian discriminant analysis)
判別模型和生成模型
前面我們介紹了Logistic迴歸,通過學習hΘ(x)來對資料的分類進行預測:給定一個特徵向量x→輸出分類y∈{0,1}。這類通過直接
Part IV Generative Learning Algorithms
回顧上一部分的內容,我們解決問題的出發點在於直接對p(y|x;)建模:如線性迴歸中y建模為高斯分佈,邏輯迴歸y建模為伯努利分佈。這樣建模的好處在於可以直接得到x到y的對映關係,理解起來也比較直接。這樣建模
多元伯努利事件模型( multi-variate Bernoulli event model)
在 GDA 中,我們要求特徵向量 x 是連續實數向量。如果 x 是離散值的話,可以考慮採用樸素貝葉斯的分類方法。
假如要分類垃圾郵件和正常郵件。
我們用
這一講是一塊單獨的內容,和上一部分的迴歸不太一樣,這塊側重用概率的方式來進行分類。
首先說一下判別學習和生成學習之間的區別,判別學習就是直接學習P(y| x),通過一系列
第四部分 生成學習演算法
到目前為止,我們主要討論了建模——給定下的的條件分佈——的學習演算法。例如,邏輯迴歸把建模成,這裡是sigmoid函式。在這些講義中,我們將討論一種不同形式的學習演算法。
考慮一個分類問題,在這個分類問題中,我們想基於一個動物的一些特徵,來學習
ps:我本身沒有系統的學過matlab程式設計,所以有的方法,比如求均值用mean()函式之類的方法都是用很笨的方法實現的,所以有很多需要改進的地方,另外是自學實現的程式,可能有的地方我理解錯誤,如果有錯誤請提出來,大家一起學習,本人qq553566286
首先,本文用到的
設樣本為X(大寫X表示向量),其類別為y。下面的圖片若非特殊宣告,均來自cs229 Lecture notes 2。
用於分類的機器學習演算法可以分為兩種:判別模型(Discriminative learning algorithms)和生成模型(Generative Le 方差 targe clas blog log 通過 post 高斯 gist 之前我們分析Logistic Regression,通過求p(y|x)來判定數據屬於哪一個輸出分類,這種直接判定的方法稱為Discriminative Learning Algorithms,但還
統計概率模型
1、高斯判別分析
2、樸素貝葉斯
3、隱馬爾可夫模型
4、最大熵馬爾科夫模型
5,條件隨機場
6,馬爾科夫決策過程
一、高斯判別分析
一、生成模型
機器學習模型有一種分類方式:判別模型和生成
高斯判別模型,內容其實非常簡單
對於大多數模型,無非就是做這麼幾件事情
1.假設模型
2.設定引數,表示概率
3.用最大似然,通過樣本算出引數
4.用得到的引數,再去測試資料裡計算概率
高斯模型判別是是這樣,因為是判別嗎,所以我們就把判別結果用0,1兩種結果來表
高斯判別分析演算法(Gaussian discriminat analysis)
高斯判別演算法是一個典型的生成學習演算法(關於生成學習演算法可以參考我的另外一篇部落格)。在這個演算法中,我們假設p(x|y)服從多元正態分佈。
注:在判別學習演算法中,
問題的來源,如圖所示:為什麼標準正態分佈的期望值0,方差為1呢,如果是針對x變數,期望值為0可以理解,那麼方差為1怎麼理解呢,顯然不可能為1,如果針對y變數,顯然所有值都大於0,怎麼會期望值會大於0呢:
先看數學期望的定義:
期望值本身是對所有值進行加權的過程,是針對一個變數存在的;每
今天看論文的時候又看到了協方差矩陣這個破東西,以前看模式分類的時候就特困擾,沒想到現在還是搞不清楚,索性開始查協方差矩陣的資料,惡補之後決定馬上記錄下來,嘿嘿~本文我將用自認為循序漸進的方式談談協方差矩陣。
統計學的基本概念
學過概率統計的孩子都知道,統計裡最
一、統計學基本概念:均值、方差、標準差
統計學裡最基本的概念就是樣本的均值、方差、標準差。首先,我們給定一個含有n個樣本的集合,下面給出這些概念的公式描述:
均值:
標準差:
方差:
均值描述的是樣本集合的中間點,它告訴我們的資訊是有限的。
標準差給我們描述的是樣
期望
定義
離散型
E(X)=∑i∞xkpk
連續型
E(X)=∫∞−∞xf(x)dx
性質
E[aX+bY]=aE[X]+bE[Y]
方差
定義
D(X)=Var(X)=E{[X−E(X)]2}=E 本文始發於個人公眾號:**TechFlow**,原創不易,求個關注
今天是**概率統計專題**的第六篇,我們來看看方差相關的概念。
## 方差的定義
方差在我們的日常生活當中非常常見,它主要是為了**提供樣本離群程度的描述**。舉個簡單的例子,我們去買一包薯片,一般來說一袋薯片當中的數量是固 得到 ont double using als clu math 利用 poj 任務
給一個n元一次方程組,求它們的解集。
說明
將方程組做成矩陣形式,再利用三種初等矩陣變換,得到上三角矩陣,最後回代得到解集。
接口
int solve(double a[][maxn], mod ces 數據 大於等於 即使 平均值 方差 很多 mode 一 高斯樸素貝葉斯分類器代碼實現
網上搜索不調用sklearn實現的樸素貝葉斯分類器基本很少,即使有也是結合文本分類的多項式或伯努利類型,因此自己寫了一遍能直接封裝的高斯類型NB分類器,當然與真正的源碼相
分類演算法:
判別學習演算法(logistic二元分類器,softmax分類器..)特點:直接去求條件概率分佈 p(y|x; θ), 也表示為 hθ(x),重點是去擬合引數θ
生成學習算(中心思想是直接去求p(y|x; θ)很難,然後轉而去求聯合分佈 p(x,y), 然後利用貝葉斯 相關推薦
分類-3-生成學習-2-高斯判別分析、協方差
斯坦福機器學習: 網易公開課系列筆記(五)——高斯判別分析、樸素貝葉斯
生成學習演算法_高斯判別分析_樸素貝葉斯_斯坦福CS229_學習筆記
分類-3-生成學習-3-樸素貝葉斯模型、laplace平滑、多元伯努利事件模型、多項式事件模型
深入淺出機器學習之生成模型,高斯判別
生成學習演算法之高斯判別分析模型
斯坦福機器學習筆記1:GDA高斯判別分析演算法的原理及matlab程式實現
生成模型中的高斯判別分析和樸素貝葉斯
高斯判別分析 Gaussian Discriminant Analysis
統計概率模型-高斯判別分析
高斯判別分析模型The Gaussian Discriminant Analysis model
高斯判別分析演算法及其python實現
到現在才理解高斯分佈的均值與方差為什麼是0和1
高斯分佈中均值,方差,協方差的計算及matlab實現
統計學習方法——均值、方差、標準差及協方差、協方差矩陣
機器學習之數學基礎——期望、方差、協方差、相關係數、矩、協方差矩陣
機器學習——方差、協方差與皮爾遜值
算法學習筆記1.1.2 高斯消元
機器學習:貝葉斯分類器(二)——高斯樸素貝葉斯分類器代碼實現
生成模型--高斯判別+樸素貝葉斯