1. 程式人生 > >機器學習----降維與度量學習(PCA)

機器學習----降維與度量學習(PCA)

思路

主成分分析、Principal Component Analysis、PCA的推導有很多種途徑,我們選擇一種,容易理解的來講解。我們的目的是降維,但是不能胡亂的降,觀察下面這組資料:
這裡寫圖片描述
我們畫的是二維情況,但是具體到高維也是可以的。μ是我們目測一個比較好的降維之後的投影方向。但是這只是目測,我們怎麼規定這個準則呢?我們規定:
投影之後樣本竟可能分散,即樣本方差儘可能大。
這裡寫圖片描述

推導

樣本點xi除了可以看成點,還可以看成一條以原點為起點,xi點為終點的向量。樣本點xi在座標軸上的投影長度為:
length=||xi||cos(θ)
其中θ為向量μ和向量x的夾角。我們帶入向量內積計算公式得:
l

ength=xiμ||μ||
||μ||=1,則可以把這個長度轉化成座標,有在μ座標軸上新座標為:
yi=xiμ=xTiμ
所以在新座標裡樣本方差為

1mim(yiy)2
y是樣本均值。我們樣本去均值化就方便計算(注:這步去均值化在變換前就可以實施)。所以我們的目標就是:
max1mimyi2=1mim(xiTμ)2=1mimμTxixiTμ=μT(1mimxixiT)μ
latex這個μ實在是加粗不能,湊合看吧,它是個向量。
我把問題寫清楚一點:
{maxμTMμs.t.μTμ=1
其中M當然等於(1/mmixixiT)啦~
用拉格朗日乘數法解決這個優化問題:
L
(μ,λ)=μTMμλ(μTμ1)

μL=Mμλμ=0
得到
Mμ=λμ
至此我們知道啦。搞了半天,μ是特徵向量,λ就是對應的特徵值啊!

整理與降維

我們回到方差最大化。發現方差為:

μTMμ=λ
所以特徵值越大,我們用對應特徵向量作為座標軸(基)變換後的樣本方差也就越大。如果我們選擇前k個特徵值對應的特徵向量,則能達到降維的目的~
降維前:
x=x1v1+x2v2+...+xmvm
降維後:

相關推薦

機器學習----度量學習PCA

思路 主成分分析、Principal Component Analysis、PCA的推導有很多種途徑,我們選擇一種,容易理解的來講解。我們的目的是降維,但是不能胡亂的降,觀察下面這組資料: 我們畫的是二維情況,但是具體到高維也是可以的。μ是我們目測一個比

周志華《Machine Learning》學習筆記12--度量學習

上篇主要介紹了幾種常用的聚類演算法,首先從距離度量與效能評估出發,列舉了常見的距離計算公式與聚類評價指標,接著分別討論了K-Means、LVQ、高斯混合聚類、密度聚類以及層次聚類演算法。K-Means與LVQ都試圖以類簇中心作為原型指導聚類,其中K-Means通

度量學習

度量學習指距離度量學習,是通過特徵變換得到特徵子空間,通過使用度量學習,讓類似的目標距離更近,不同的目標距離更遠. 也就是說,度量學習需要得到目標的某些核心特徵(特點)。比如區分兩個人,2隻眼睛1個鼻子-這是共性,柳葉彎眉櫻桃口-這是特點。 度量學習分為兩種,一種是基於監

從零開始-Machine Learning學習筆記(27)-度量學習

文章目錄 1. k近鄰學習 - (k-Nearest Neighbor, KNN) 2. 低維嵌入 3. 主成分分析(Principal Component Analysis, PCA) 4. 核化線性降維 - K

機器學習】資料—主成分分析PCA

本文程式碼推薦使用Jupyter notebook跑,這樣得到的結果更為直觀。 主成分分析(PCA) 特徵抽取通常用於提高計算效率,降低維度災難。 主成分分析(Principe component analysis,PCA):        是一種廣泛應用於不同領域的無監督

數據——主成分分析PCA

get none ont chm 公式 == amp aic strong 在數據挖掘過程中,當一個對象有多個屬性(即該對象的測量過程產生多個變量)時,會產生高維度數據,這給數據挖掘工作帶來了難度,我們希望用較少的變量來描述數據的絕大多數信息,此時一個比較好的

機器學習】資料—線性判別分析LDA

本文程式碼推薦使用Jupyter notebook跑,這樣得到的結果更為直觀。 線性判別分析(Linear Discriminant Analysis,LDA)是一種可作為特徵抽取的技術 LDA可以提

JVM基礎:深入學習JVM堆JVM棧

面向 對象的引用 進入 信息 分離 字節 address 出現 運行 JVM棧解決程序的運行問題,即程序如何執行,或者說如何處理數據;JVM堆解決的是數據存儲的問題,即數據怎麽放、放在哪兒,另外JVM堆中存的是對象。JVM棧中存的是基本數據類型和JVM堆中對象的引用。 JV

機器學習實戰學習筆記5——主成分分析PCA

1.PCA演算法概述 1.1 PCA演算法介紹 主成分分析(Principal Component Analysis)是一種用正交變換的方法將一個可能相關變數的觀察值集合轉換成一個線性無關變數值集合的統計過程,被稱為主成分。主成分的數目小於或等於原始

Java進階學習之集合泛型1

[TOC](目錄) ## 1.集合 #### 1.1.集合是什麼 之前的基礎篇中我們知道了一種資料結構:陣列,可以存放很多資料。但是資料有很大的侷限性: - 支援的資料型別單一 - 宣告時需要指定大小,大小固定,可擴充套件性差 - 連續的儲存單元,對記憶體要求苛刻 那麼是否有其他的資料結構或者資料型

學習筆記:度量、特徵選擇稀疏學習

這篇筆記,是一個大雜燴,涉及很多概念,主要是機器學習第10章和第11章的學習筆記。 ##1.降維 降維,主要是用於解決維數災難,它也被稱為維數約簡,即通過某種數學變換將原始高維屬性空間轉變為一個低維的子空間。 @@1.為啥要降維? 主要原因是高維的資料,有時並不能高效合理的解決我

機器學習-PCADBScan聚類分析實戰

基本概念:   在資料處理中,經常會遇到特徵維度比樣本數量多得多的情況,如果拿到實際工程中去跑,效果不一定好。一是因為冗餘的特徵會帶來一些噪音,影響計算的結果;二是因為無關的特徵會加大計算量,耗費時間和資源。所以我們通常會對資料重新變換一下,再跑模型。資料變換的目的不僅僅是降維,還可以消除特徵之間的相關性,

吳恩達機器學習總結:第十一 PCA大綱摘要及課後作業

為了更好的學習,充分複習自己學習的知識,總結課內重要知識點,每次完成作業後都會更博。總結1.動機I:資料壓縮(1)壓縮    a.加速演算法    b.減小資料空間    c.2維降為1維例子    d.3維降為2維例子       e.在實際中,我們正常會將1000維將為1

機器學習】決策樹隨機森林

文章轉自: https://www.cnblogs.com/fionacai/p/5894142.html    首先,在瞭解樹模型之前,自然想到樹模型和線性模型有什麼區別呢?其中最重要的是,樹形模型是一個一個特徵進行處理,之前線性模型是所有特徵給予權重相加得到一個新的值。決

機器學習基礎--概率論數理統計學習到P65(忘記的東西都在這)

1、條件概率     2、全概率公式         條件:B1,B2,B3...Bn是總體S的一個劃分,即       且      3

人工智慧2- 學習主成成分分析PCA進行

一.為什麼要進行降維?     在進行分類的時候我們需要大量的特徵來提高分類器的準確度,但是分類器的效能隨著隨著維度的增加,逐步上升,達到某點其效能便逐漸下降。    為了避免效能下降的情況,我們要進行降低維度的處理。  &nb

機器學習--技術PCA

1.PCA降維原理: PCA屬於線性降維方式: X為原空間  W為變化矩陣  Z為新空間    Z的維數要小於X維數,實現了降維處理。 用一個超平面來表示正交屬性空間的樣本點,這個超平面應該儘量滿足最近重構性以及最大可分性,即空間中所有點離這個超平面儘可能近,樣本點

【ML學習筆記】25:PCA及繪製恢復示意圖

主成分分析 簡述 主成分分析意在學習一個對映 U r

流形學習-高維資料的視覺化

1.流形學習的概念 流形學習方法(Manifold Learning),簡稱流形學習,自2000年在著名的科學雜誌《Science》被首次提出以來,已成為資訊科學領域的研究熱點。在理論和應用上,流形學習方法都具有重要的研究意義。 假設資料是均勻取樣於一個高維

迴歸學習演算法---偏最小二乘迴歸、PCA理論

1、相關係數的意義與原理   在研究中我們經常要研究多個變數之間的相關性,這些變數可以是自變數與自變數之間、或者是自變數與因變數之間的相關性,為了表示這種相關性,我們引入了相關係數這個概念。這裡使用的