1. 程式人生 > >【模式識別】Fisher線性判別

【模式識別】Fisher線性判別

Fisher是一種將高維空間對映到低維空間降維後進行分類的方法

1.投影:

xn的分量作線性組合可得標量

yn=w⃗ Txn

什麼樣的對映方法是好的,我們需要設計一個定量的標準去找w⃗ 來衡量分類的好壞,或者叫做準則函式。

2.基本參量

  • 在d維X空間

    • 各類樣本均值向量m⃗ i

      mi=1Nix⃗ Xix⃗ ,i=1,2
    • 樣本類內離散度矩陣Si和總類內離散度矩陣Sw

      Si=xXi(x⃗ mi)(x⃗ mi)T,i=1,2
    • 樣本類間離散度矩陣Sb

      Sb=(m1m2)(m1m2)T
  • 在一維空間

    • 各類樣本均值mi¯¯¯¯

      mi¯¯
      ¯¯
      =1NiyYiy,i=1,2

    • 樣本類內離散度S2i¯¯¯¯和總類內離散度Sw¯¯¯¯¯

      S2i¯¯¯¯=yYi(ymi¯¯¯¯)2,i=1,2Sw¯¯¯¯¯=S1¯¯¯¯+S2¯¯¯¯

3.衡量標準:

1.我們希望兩類均值之差儘量大

2.同時希望各類樣本內部儘量密集

有了這個標準後我們可以得到準則函式:

JF(w⃗ )=m1¯¯¯¯m2¯¯¯¯S21¯¯¯¯+S22¯¯¯¯
4.解:

經過一系列推導之後得到

相關推薦

模式識別Fisher線性判別

Fisher是一種將高維空間對映到低維空間降維後進行分類的方法 1.投影: 對xn→的分量作線性組合可得標量 yn=w⃗ Txn→ 什麼樣的對映方法是好的,我們需要設計一個定量的標準去找w⃗ 來

模式識別SVM核函式

以下是幾種常用的核函式表示:線性核(Linear Kernel)多項式核(Polynomial Kernel)徑向基核函式(Radial Basis Function)也叫高斯核(Gaussian Kernel),因為可以看成如下核函式的領一個種形式:徑向基函式是指取值僅僅依

模式識別Boosting

Boosting簡介分類中通常使用將多個弱分類器組合成強分類器進行分類的方法,統稱為整合分類方法(Ensemble Method)。比較簡單的如在Boosting之前出現Bagging的方法,首先從從整體樣本集合中抽樣採取不同的訓練集訓練弱分類器,然後使用多個弱分類器進行vo

模式識別模式識別的概述(一)

本節主要內容: 模式和模式識別的概念模式識別的發展簡史和應用模式識別的主要方法模式識別的系統和例項幾個相關的數學概念1、模式和模式識別的概念  什麼是模式(Pattern)? 廣義地說,存在於時間和空間中可觀察的事物,如果我們可以區別他們是否相同或是否相似,都可以稱之為

模式識別K-近鄰分類演算法KNN

K-近鄰(K-Nearest Neighbors, KNN)是一種很好理解的分類演算法,簡單說來就是從訓練樣本中找出K個與其最相近的樣本,然後看這K個樣本中哪個類別的樣本多,則待判定的值(或說抽樣)就屬於這個類別。KNN演算法的步驟計算已知類別資料集中每個點與當前點的距離;選

機器學習LDA線性判別分析原理及例項

1、LDA的基本原理 LDA線性判別分析也是一種經典的降維方法,LDA是一種監督學習的降維技術,也就是說它的資料集的每個樣本是有類別輸出的。這點和PCA不同。PCA是不考慮樣本類別輸出的無監督降維技術。LDA的思想可以用一句話概括,就是“*投影后類內方

模式識別感知器 Perceptron

基本概念線性可分:在特徵空間中可以用一個線性分介面正確無誤地分開兩 類樣本;採用增廣樣本向量,即存 在合適的增廣權向量 a 使得:則稱樣本是線性可分的。如下圖中左圖線性可分,右圖不可分。所有滿足條件的權向量稱為解向量。權值空間中所有解向量組成的區域稱為解區。通常對解區限制:引

模式識別MPL,MIL和MCL

Multi-Instance Learning (MIL) 和Multi-Pose Learning (MPL)是CV的大牛Boris Babenko at UC San Diego提出來的,其思想可以用下面一幅圖概況。MIL是指一個物件的學習例項可能有很多種情況,學習的時候

模式識別與機器學習——判別式和產生式模型

(1)判別式模型(Discriminative Model)是直接對條件概率p(y|x;θ)建模。常見的判別式模型有線性迴歸模型、線性判別分析、支援向量機SVM、神經網路、boosting、條件隨機場等。   舉例:要確定一個羊是山羊還是綿羊,用判別模型的方法是從歷史資料中學習到模型,然後通過提取這隻羊的特

模式識別與機器學習——3.9勢函式法:一種確定性的非線性分類方法

目的   用勢函式的概念來確定判別函式和劃分類別介面。 基本思想   假設要劃分屬於兩種類別ω1和ω2的模式樣本,這些樣本可看成是分佈在n維模式空間中的點xk。 把屬於ω1的點比擬為某種能源點,在點上,電位達到峰值。 隨著與該點距離的增大,電位分佈迅速減小,即把樣本xk附近空間x點上的電位分佈,看

模式識別與機器學習——PCA主成分分析

  基本思想 其基本思想就是設法提取資料的主成分(或者說是主要資訊),然後摒棄冗餘資訊(或次要資訊),從而達到壓縮的目的。本文將從更深的層次上討論PCA的原理,以及Kernel化的PCA。 引子 首先我們來考察一下,這裡的資訊冗餘是如何體現的。如下圖所示,我們有一組二維資料點,從圖上不難發現

模式識別與機器學習——PCA與Kernel PCA介紹與對比

  PCA與Kernel PCA介紹與對比 1. 理論介紹   PCA:是常用的提取資料的手段,其功能為提取主成分(主要資訊),摒棄冗餘資訊(次要資訊),從而得到壓縮後的資料,實現維度的下降。其設想通過投影矩陣將高維資訊轉換到另一個座標系下,並通過平移將資料均值變為零。PCA認為,在變換過後的

模式識別與機器學習——最大似然估計 (MLE) 最大後驗概率(MAP)

1) 極/最大似然估計 MLE 給定一堆資料,假如我們知道它是從某一種分佈中隨機取出來的,可是我們並不知道這個分佈具體的參,即“模型已定,引數未知”。例如,我們知道這個分佈是正態分佈,但是不知道均值和方差;或者是二項分佈,但是不知道均值。 最大似然估計(MLE,Maximum Likelihood Esti

基於開源專案OpenCV的人臉識別Demo版整理(不僅可以識別人臉,還可以識別眼睛鼻子嘴等)模式識別中的翹楚

最近對人臉識別的程式非常感興趣,但是苦於沒有選修多媒體方向,看了幾篇關於人臉識別的論文,大概也沒看懂多少,什麼灰度處理啊,切割識別啊,雲裡霧裡,傻傻看不明白啊。各種苦惱。     於是就在網上找找,看有木有神馬開原始碼啊,要是有個現成的原始碼就更好了,百度it ,那些原始碼都憂傷的躲在CSDN中,老衲還

PHP PC端微信掃碼支付模式詳細教程-附帶源碼(轉)

idt class pid 方法 按鈕 -c 商戶 開源 玩意兒 博主寫這破玩意兒的時候花了大概快兩天時間才整體的弄懂邏輯,考慮了一下~還是把所有代碼都放出來給大家~抱著開源大無私的精神!誰叫我擅長拍黃片呢?同時也感謝我剛入行時候那些無私幫過我的程序員們! 首先還是

模式識別筆記2-線性模型

align 極大似然估計 play 模式 連線 激活 phi 最小二乘 屬於 1. 參數VS非參數 給定樣本集 $(x_i, y_i), i= 1,2,\cdots, n $,其中 \(x_i\) 表示特征向量, \(y_i\) 表示樣本標簽。 考慮一個新的向量 \(x\

C#資料結構001-線性表:順序表

C#資料結構:順序表結構 1、自定義順序表結構 using System.Collections; using System.Collections.Generic; /// <summary> ///線性表介面 /// </summary> /// <type

模式分解無損連線&保持函式依賴

首先引入定義     無損分解指的是對關係模式分解時,原關係模型下任一合法的關係值在分解之後應能通過自然聯接運算恢復起來。反之,則稱為有損分解。   保持函式依賴的分解指的是對關係分解時,原關係的閉包與分解後關係閉包的並集相等。    

矩陣論01——線性空間——基本概念

本系列文章由Titus_1996 原創,轉載請註明出處。   文章連結:https://blog.csdn.net/Titus_1996/article/details/82788989 本系列文章使用的教材為《矩陣論》(第二版),楊明,劉先忠編,華中科技大學出

矩陣論04——線性空間——子空間

本系列文章由Titus_1996 原創,轉載請註明出處。   文章連結:https://blog.csdn.net/Titus_1996/article/details/82842164 本系列文章使用的教材為《矩陣論》(第二版),楊明,劉先忠編,華中科技大學出