1. 程式人生 > >線性判別分析(Linear Discriminant Analyst)

線性判別分析(Linear Discriminant Analyst)

線性判別分析LDA

為了最優分類,我們要計算後驗概率P(G|X)fk(x)是類G=kX的類條件密度,而πk是類k的先驗概率,貝葉斯定理給出
P(G=k|X=x)=fk(x)πkKl=1fl(x)πl
假定我們用多元高斯分佈對每個類密度建模
fk(x)=1(2π)p/2|Σk|1/2exp(1/2(xμk)TΣ1k(xμk)
線性判別分析假定所有類具有共同的協方差矩陣,即
Σk=Σ
這樣,為了比較兩個類,只需要考察對數比率
logP(G=k|X=x)P(G=l|X=x)=logfk(x)fl(x)+logπkπl
=logπkπl1/2(uk+ul)Σ

1(uk+ul)+xTΣ1(ukul)
這是x上的線性方程。相等的協方差矩陣使得我們可以消去二次項,因此任意兩個類別的判定邊界都是一個超平面。

從上面的判別邊界可以看出,線性判別函式
δk(x)=logπk1/2ukΣ1uk+xTΣ1uk
是判定規則的等價描述,其中
G(x)=argmaxkδk(x)
給定了資料,我們要估計引數u,π,Σ的值
估計值如下:
p^ik=Nk/N,其中Nk是類k的觀測數
u^k=gi=kxi/Nk
Σ^=Kk=1gi=k(xiu^k)(

相關推薦

線性判別分析Linear Discriminant Analyst

線性判別分析LDA 為了最優分類,我們要計算後驗概率P(G|X)。設fk(x)是類G=k中X的類條件密度,而πk是類k的先驗概率,貝葉斯定理給出 P(G=k|X=x)=fk(x)πk∑Kl=1fl(x)πl 假定我們用多元高斯分佈對每個類密度建模

線性判別分析Linear Discriminant Analysis

線性判別式分析(Linear Discriminant Analysis, LDA),也叫做Fisher線性判別(Fisher Linear Discriminant ,FLD),是模式識別的經典演算法,它是在1996年由Belhumeur引入模式識別和人工智慧領域的。性鑑別

線性判別分析Linear Discriminant Analysis

4. 例項       將3維空間上的球體樣本點投影到二維上,W1相比W2能夠獲得更好的分離效果。              PCA與LDA的降維對比:              PCA選擇樣本點投影具有最大方差的方向,LDA選擇分類效能最好的方向。       LDA既然叫做線性判別分析,應該具有一定的預

線性判別分析Linear Discriminant Analysis-LDA

png 數學 坐標軸 ima 特征 分析 技術 數據預處理 距離 Linear Discriminant Analysis(LDA線性判別分析)   用途:數據預處理中的降維,分類任務   目標:LDA關心的是能夠最大化類間區分度的坐標軸成分,將特征空間(數據集中的多維樣本

線性判別分析(Linear Discriminant Analysis,LDA

        LDA用於分類問題上,在給定一個樣本的情況下,將樣例投影到一條直線上,使得同類樣例的投影點儘可能接近,異類樣例的投影點儘可能遠離。那麼對於一個新的樣本,只要將其投影到這條直線上再根據投影點的位置即可完成分類。

線性判別分析LDALinear Discriminant Analysis

1、簡介 大家熟知的PCA演算法是一種無監督的降維演算法,其在工作過程中沒有將類別標籤考慮進去。當我們想在對原始資料降維後的一些最佳特徵(與類標籤關係最密切的,即與y相關),這個時候,基於Fisher準則的線性判別分析LDA就能派上用場了。注意,LDA是一種有

線性判別分析LDA基本原理及實現

前言 在主成分分析(PCA)原理總結(機器學習(27)【降維】之主成分分析(PCA)詳解)中對降維演算法PCA做了總結。這裡就對另外一種經典的降維方法線性判別分析(Linear Discriminant Analysis, 簡稱LDA)做一個總結。LDA在模式識別領域(比如

線性判別分析

4. 例項       將3維空間上的球體樣本點投影到二維上,W1相比W2能夠獲得更好的分離效果。              PCA與LDA的降維對比:              PCA選擇樣本點投影具有最大方差的方向,LDA選擇分類效能最好的方向。   

機器學習演算法的Python實現 (1):logistics迴歸 與 線性判別分析LDA

本文為筆者在學習周志華老師的機器學習教材後,寫的課後習題的的程式設計題。之前放在答案的博文中,現在重新進行整理,將需要實現程式碼的部分單獨拿出來,慢慢積累。希望能寫一個機器學習演算法實現的系列。 本文主要包括: 1、logistics迴歸 2、線性判別分析(LDA) 使

線性判別分析LDA原理

至少 最大化 算法 標準 之前 協方差矩陣 一個 滿足 這不 在主成分分析(PCA)原理總結中,我們對降維算法PCA做了總結。這裏我們就對另外一種經典的降維方法線性判別分析(Linear Discriminant Analysis, 以下簡稱LDA)做一個總結。LDA在模式

用於降維的線性判別分析LDA演算法

LDA降維演算法分為簡單兩類情況和多類通用情況只有兩類樣本的簡單情況:輸入:兩類樣本特徵目的:將兩類樣本的特徵投影至同類距離小,異類距離大的低維空間上,使得資料量減少的同時不損失分類資訊步驟:1,計算兩類樣本的均值u0和u1,協方差矩陣sigma0,sigma12,假設投影空

【機器學習】資料降維—線性判別分析LDA

本文程式碼推薦使用Jupyter notebook跑,這樣得到的結果更為直觀。 線性判別分析(Linear Discriminant Analysis,LDA)是一種可作為特徵抽取的技術 LDA可以提

opencv2筆記03-線性判別分析LDA

1. 線性判別分析(二類情況) 判別準則函式: J(w)=|μ1~−μ2~|2S1~2+S2~2 其中: 1.d維x空間 各類樣本的均值向量: μi=1Ni∑x∈ωix 類內離散度矩

線性判別分析LDA

      上一節介紹了PCA演算法,PCA的目標是希望降維後的資料能夠保持最多的信息,而Discriminant Analysis所追求的目標與PCA不同,它希望資料在降維後能夠很容易地被區分開來

Python機器學習筆記:線性判別分析LDA演算法

預備知識   首先學習兩個概念:   線性分類:指存在一個線性方程可以把待分類資料分開,或者說用一個超平面能將正負樣本區分開,表示式為y=wx,這裡先說一下超平面,對於二維的情況,可以理解為一條直線,如一次函式。它的分類演算法是基於一個線性的預測函式,決策的邊界是平的,比如直線和平面。一般的方法有感知器,最小

線性判別分析(Linear Discriminant Analysis, LDA演算法分析

原文地址 LDA演算法入門 一. LDA演算法概述: 線性判別式分析(Linear Discriminant Analysis, LDA),也叫做Fisher線性判別(Fisher Linear Discriminant ,FLD),是模式識別的經典演算法,它是

【機器學習】LDA線性判別分析或fisher判別分析

內容目錄: 一、LDA/fisher判別分析 二、LDA判別分析與PCA對比 一、fisher判別分析 1.首先在模式識別課程上學習的是fisher判別,LDA概念是看川大同學寫的500問接觸的,兩者是一樣的東西。 2推薦:深度學習500問 github連結形式是問答形式,初學者概念

ML-64: 機器學習之線性判別分析(Linear Discriminant Analysis)降維演算法+程式碼

線性判別分析(Linear Discriminant Analysis)降維演算法 機器學習分為監督學習、無監督學習和半監督學習(強化學習)。無監督學習最常應用的場景是聚類(clustering)和降維(dimension reduction)。聚類演算法包括

機器學習筆記之4——Fisher分類器線性判別分析,LDA

本博文為Fisher分類器的學習筆記~本博文主要參考書籍為:《Python大戰機器學習》Fisher分類器也叫Fisher線性判別(Fisher Linear Discriminant),或稱為線性判別分析(Linear Discriminant Analysis,LDA)。

降維演算法LASSO、PCA、聚類分析、小波分析線性判別分析、拉普拉斯特徵對映、區域性線性嵌入

1、LASSO LASSO全稱least absolute shrinkage and selection operator,本身是一種迴歸方法。與常規迴歸方法不同的是,LASSO可以對通過引數縮減對引數進行選擇,從而達到降維的目的。說到LASSO,就不得不說