1. 程式人生 > >matlab 程式碼 一些常用的 降維演算法

matlab 程式碼 一些常用的 降維演算法

http://sugiyama-www.cs.titech.ac.jp/~sugi/software/

Software

The software available below is free of charge for research and education purposes. However, you must obtain a license from the author(s) to use it for commercial purposes. The software must not be distributed without prior permission of the author(s). 


The software is supplied "as is" without warranty of any kind, and the author(s) disclaim any and all warranties, including but not limited to any implied warranties of merchantability and fitness for a particular purpose, and any warranties or non infringement. The user assumes all liability and responsibility for use of the software and in no event shall the author(s) be liable for damages of any kind resulting from its use.

Fundamentals

Applications

  • Covariate shift adaptation
    • IWLS+IWCV+uLSIF (importance-weighted least-squares + importance-weighted cross-validation + unconstrained least-squares importance fitting): MATLAB
    • IWLR+KLIEP (importance-weighted logistic regression + Kullback-Leibler importance estimation procedure): MATLAB (by Makoto Yamada)
    • IWLSPC+IWCV+KLIEP (importance-weighted least-squares probabilistic classifier + importance-weighted cross-validation + Kullback-Leibler importance estimation procedure): MATLAB (by Hirotaka Hachiya)
  • Inlier-based outlier detection
  • Feature selection
    • MLFS (maximum-likelihood feature selection in supervised regression/classification): MATLAB (with Taiji Suzuki)
    • LSFS (least-squares feature selection in supervised regression/classification): MATLAB (with Taiji Suzuki)
    • L1-LSMI (L1-LSMI-based feature selection for supervised regression/classification): MATLAB (by Wittawat Jitkrittum)
    • HSIC-LASSO (Hilbert-Schmidt independence criterion + least absolute shrinkage and selection operator for high-dimensional feature selection in supervised regression/classification): MATLAB (by Makoto Yamada)
  • Dimensionality reduction/feature extraction/metric learning
    • NGCA (non-Gaussian component analysis, unsupervised linear dimensionality reduction): MATLAB (by Gilles Blanchard)
    • LSDR (least-squares dimensionality reduction, supervised linear dimensionality reduction for regression/classification): MATLAB (with Taiji Suzuki)
    • SCA (sufficient component analysis, supervised linear dimensionality reduction for regression/classification):MATLAB (by Makoto Yamada)
    • LFDA (local Fisher discriminant analysis, supervised linear dimensionality reduction for classification): MATLAB
    • KLFDA (kernel LFDA, supervised non-linear dimensionality reduction for classification): MATLAB
    • SELF (semi-supervised LFDA, semi-supervised linear dimensionality reduction for classification): MATLAB
    • LSCDA (least-squares canonical dependency analysis, linear dimensionality reduction for paired data): MATLAB (by Masayuki Karasuyama)
    • SERAPH (semi-supervised metric learning paradigm with hyper-sparsity, semi-supervised metric learning for classification): MATLAB (by Gang Niu)
  • Conditinonal probability estimation
  • Independence test
    • LSIT (least-squares independence test): MATLAB
  • Two-sample test
    • LSTT (least-squares two-sample test): MATLAB
  • Change detection
  • Clustering
    • SMIC (clustering based on maximization of squared-loss mutual information): MATLAB
    • MVC (clustering based on maximization of volume): MATLAB (by Gang Niu)
    • LSLDG (clustering based on least-squares log-density gradient): MATLAB (by Hiroaki Sasaki)
  • Independent component analysis
  • Causal direction inference
  • Cross-domain object matching
  • Hidden Markov Model
  • Sparse learning
  • Matrix factorization
    • VBMF (variational Bayesian matrix factorization): MATLAB
  • Reinforcement learning
    • IW-PGPE-OB (model-free policy gradient method with sample reuse): MATLAB

相關推薦

matlab 程式碼 一些常用演算法

http://sugiyama-www.cs.titech.ac.jp/~sugi/software/ Software The software available below is free of charge for research and educatio

ML-64: 機器學習之線性判別分析(Linear Discriminant Analysis)演算法+程式碼

線性判別分析(Linear Discriminant Analysis)降維演算法 機器學習分為監督學習、無監督學習和半監督學習(強化學習)。無監督學習最常應用的場景是聚類(clustering)和降維(dimension reduction)。聚類演算法包括

PCA演算法總結以及matlab實現PCA(個人的一點理解)

轉載請宣告出處。by watkins song 兩篇文章各有側重, 對照看效果更加 o(∩∩)o.. PCA的一些基本資料 最近因為最人臉表情識別,提取的gabor特徵太多了,所以需要用PCA進行對提取的特徵進行降維。 本來最早的時候我沒有打算對提取的gabor特徵

PCA 演算法詳解 以及程式碼示例

%% Initialization clear ; close all; clc fprintf('this code will load 12 images and do PCA for each face.\n'); fprintf('10 images are used to train PCA an

PCA(主成分分析) 演算法詳解 和程式碼

1. 前言  PCA : principal component analysis ( 主成分分析) 最近發現我的一篇關於PCA演算法總結以及個人理解的部落格的訪問量比較高, 剛好目前又重新學習了一下PCA (主成分分析) 降維演算法, 所以打算把目前掌握的做個全面的

區域性線性嵌入演算法(含實驗程式碼

區域性線性嵌入演算法(Locally linear embedding, LLE)是一個非線性降維方法,由 Sam T.Roweis 和Lawrence K.Saul 於 2000 年提出並發表在《Science》雜誌上。它能夠使降維後的資料保持原有拓撲結構不變。現在已經

機器學習筆記(八):PCA演算法

1 - PCA概述 主成份分析,簡稱為PCA,是一種非監督學習演算法,經常被用來進行 資料降維 有損資料壓縮 特徵抽取 資料視覺化 2 - PCA原理詳解 通過計算資料矩陣的協方差矩陣,然後得到協方差矩陣的特徵值特徵向量,選擇特

MARK:簡述多種演算法

最近看了一些關於降維演算法的東西,本文首先給出了七種演算法的一個資訊表,歸納了關於每個演算法可以調節的(超)引數、演算法主要目的等等,然後介紹了降維的一些基本概念,包括降維是什麼、為什麼要降維、降維可以解決維數災難等,然後分析可以從什麼樣的角度來降維,接著整理了這些演算法的具體流程。主要目錄如下:

淺談PCA(主成分分析)線性演算法用法

sklearn.decomposition.PCA(n_components = None, copy = True, whiten = False) n_components表示需要保留的主成分個數,即需要降低到幾維;若n_components=1,則表

一步步教你輕鬆學主成分分析PCA演算法

(白寧超 2018年10月22日10:14:18) 摘要:主成分分析(英語:Principal components analysis,PCA)是一種分析、簡化資料集的技術。主成分分析經常用於減少資料集的維數,同時保持資料集中的對方差貢獻最大的特徵。常常應用在文字處理、人臉識別、圖片識別、自然語言處

一步步教你輕鬆學奇異值分解SVD演算法

摘要:奇異值分解(singular value decomposition)是線性代數中一種重要的矩陣分解,在生物資訊學、訊號處理、金融學、統計學等領域有重要應用,SVD都是提取資訊的強度工具。在機器學習領域,很多應用與奇異值都有關係,比如推薦系統、資料壓縮(以影象壓縮為代表)、搜尋引擎語義層次檢索的

【機器學習】簡述多種演算法

【轉載請註明出處】chenrudan.github.io 最近看了一些關於降維演算法的東西,本文首先給出了七種演算法的一個資訊表,歸納了關於每個演算法可以調節的(超)引數、演算法主要目的等等,然後介紹了降維的一些基本概念,包括降維是什麼、為什麼要降維、降維可以

演算法(PCA)

降維方法 1、主成分分析(PCA) 在PCA中,資料從原來的座標系轉換到新的座標系,新座標系的選擇是由資料本身決定的。第一個新座標軸選擇的是原始資料中方差最大的方向,第二個新座標軸選擇和第一個座標軸正交且具有最大方差的方向。該過程一直重複,重複次數為原始資料

四大機器學習演算法:PCA、LDA、LLE、Laplacian Eigenmaps

引言 機器學習領域中所謂的降維就是指採用某種對映方法,將原高維空間中的資料點對映到低維度的空間中。降維的本質是學習一個對映函式 f : x->y,其中x是原始資料點的表達,目前最多使用向量表達形式。 y是資料點對映後的低維向量表達,通常y的維度小於x的維度(當然提

維度打擊,機器學習中的演算法:ISOMAP & MDS

降維是機器學習中很有意思的一部分,很多時候它是無監督的,能夠更好地刻畫資料,對模型效果提升也有幫助,同時在資料視覺化中也有著舉足輕重的作用。 一說到降維,大家第一反應總是PCA,基本上每一本講機器學習的書都會提到PCA,而除此之外其實還有很多很有意思的降維演算

簡述多種演算法

本文首先給出了七種演算法的一個資訊表,歸納了關於每個演算法可以調節的(超)引數、演算法主要目的等等,然後介紹了降維的一些基本概念,包括降維是什麼、為什麼要降維、降維可以解決維數災難等,然後分析可以從什麼樣的角度來降維,接著整理了這些演算法的具體流程。主要目錄如下:

演算法(LASSO、PCA、聚類分析、小波分析、線性判別分析、拉普拉斯特徵對映、區域性線性嵌入)

1、LASSO LASSO全稱least absolute shrinkage and selection operator,本身是一種迴歸方法。與常規迴歸方法不同的是,LASSO可以對通過引數縮減對引數進行選擇,從而達到降維的目的。說到LASSO,就不得不說

詮釋資料演算法:一文講盡t-分佈鄰域嵌入演算法(t-SNE)如何有效利用

摘要: t-分佈領域嵌入演算法(t-SNE, t-distributed Stochastic Neighbor Embedding )是目前一個非常流行的對高維度資料進行降維的演算法, 由Laurens van der Maaten和 Geoffrey Hinton於20

演算法--PCA 與 t-SNE

PCA是大家所熟知的降維演算法,但是線性降維雖然簡單,其侷限性也很明顯,難以實現高維資料在低維空間的視覺化。t-SNE是非線性的降維演算法,能實現高維到低維的視覺化對映,但因為涉及大量的條件概率、梯度下降等計算,時間和空間複雜度是平方級的,比較耗資源。t-SNE幾乎可用於所有

機器學習:演算法-主成分分析PCA演算法兩種角度的推導

若把高維空間的樣本點(可以想象是一個3維的)對映到一個超平面,怎樣的超平面可以認為是“好的”,可以想到這個超平面大概有這樣的性質: 最近重構行:樣本點到超平面的距離都足夠近;(樣本點變化儘可能小,丟失的資訊儘可能少) 最大可分性:樣本點在這個超平面上的投影儘可能分開.(樣