【機器學習】最大均值差異MMD詳解
引言
最大均值差異(maximum mean discrepancy, MMD)提出時候是用來測試兩個樣本,是否來自兩個不同分佈p和q,如果均值差異達到最大,就說明取樣的樣本來自完全不同的分佈。
原理
MMD的基本原理如下所述:假設有一個滿足P分佈的資料集Xs=[xs1,...,xsn]和一個滿足Q分佈的資料集Xt=[xt1,...,xtm] 並且存在一個再生希爾伯特空間H(RKHS) 存在一個對映函式ϕ(⋅):X−>H表示從原始空間到希爾伯特空間的一個對映,並且當n,m 趨於無窮時Xsx 和Xtx的最大均值差異可以表示為下式:
p和q相同時,MMD=0。
進一步,
通過上式可以看出,其原理是對每一個樣本進行投影並求和,利用和的大小表述兩個資料的分佈差異。
優勢
不用藉助額外的引數
運用
MMD在最近的風格遷移中運用的比較多,其神經網路主要是通過最小化兩個網路的分佈差異,同時MMD在吳恩達提出最近10年要火的遷移學習中應用很廣,很多遷移學習神經網路就是把MMD做為最後的損失函式而進行優化的,並且提出了很多改進方法。
相關推薦
【機器學習】最大均值差異MMD詳解
引言 最大均值差異(maximum mean discrepancy, MMD)提出時候是用來測試兩個樣本,是否來自兩個不同分佈p和q,如果均值差異達到最大,就說明取樣的樣本來自完全不同的分佈。 原理 MMD的基本原理如下所述:假設有一個滿足P分佈的資料集Xs=[xs1,...,xsn]
【機器學習】最大熵模型原理小結
最大熵模型(maximum entropy model, MaxEnt)也是很典型的分類演算法了,它和邏輯迴歸類似,都是屬於對數線性分類模型。在損失函式優化的過程中,使用了和支援向量機類似的凸優化技術。而對熵的使用,讓我們想起了決策樹演算法中的ID3和C4.5演算法。理解了最
【機器學習】5種距離度量方法詳解+Python實現([]+lambda+np.frompyfunc+向量法等多種方法實現)
介紹的五種距離度量方法是:歐氏距離(Euclidean Distance),曼哈頓距離(Manhattan Distance),夾角餘弦(Angle Cosine),切比雪夫距離(Chebyshev Distance),漢明距離(Hamming Distance)。1.歐式距
【模式識別與機器學習】——最大似然估計 (MLE) 最大後驗概率(MAP)
1) 極/最大似然估計 MLE 給定一堆資料,假如我們知道它是從某一種分佈中隨機取出來的,可是我們並不知道這個分佈具體的參,即“模型已定,引數未知”。例如,我們知道這個分佈是正態分佈,但是不知道均值和方差;或者是二項分佈,但是不知道均值。 最大似然估計(MLE,Maximum Likelihood Esti
【機器學習】最簡單易懂的行人檢測功能實現
載入訓練好的行人分類器,實現行人檢測功能。 程式碼中用到的訓練好的行人分類器"pedestrianDetect.xml"下載路徑:https://download.csdn.net/download/lyq_12/10742144 一、效果如下: 1、輸入原圖 2、輸出結果
【機器學習】最容易實現的基於OpenCV的人臉檢測程式碼、檢測器及檢測效果
基於opencv自帶的人臉檢測模型,實現簡單的人臉檢測功能,可作為機器學習初學者練手使用。簡單易學,具體的方法及程式碼如下。 1、執行結果 輸入原圖 輸出結果 2、工程需要載入的opencv庫如下: 3、用到的人臉檢測器 4、具體實現程式碼 #
【機器學習】最小二乘法求解線性迴歸引數
回顧 迴歸分析之線性迴歸 中我們得到了線性迴歸的損失函式為: J ( θ
【機器學習】最小二乘法支援向量機LSSVM的數學原理與Python實現
【機器學習】最小二乘法支援向量機LSSVM的數學原理與Python實現 一、LSSVM數學原理 1. 感知機 2. SVM 3. LSSVM 4. LSSVM與SVM的區別 二、LSSVM的py
【機器學習】最近鄰演算法KNN原理、流程框圖、程式碼實現及優缺點
通過機器學習教學視訊,初識KNN演算法,對原理和演算法流程通過小應用進行Python實現,有了自己的一些理解。因此在此整理一下,既是對自己學習的階段性總結,也希望能和更多的朋友們共同交流學習相關演算法,如有不完善的地方歡迎批評指正。1、KNN演算法原理KNN,全稱k-Near
【機器學習】:Kmeans均值聚類演算法原理(附帶Python程式碼實現)
這個演算法中文名為k均值聚類演算法,首先我們在二維的特殊條件下討論其實現的過程,方便大家理解。 第一步.隨機生成質心 由於這是一個無監督學習的演算法,因此我們首先在一個二維的座標軸下隨機給定一堆點,並隨即給定兩個質心,我們這個演算法的目的就是將這一堆點根據它們自身的座標特徵分為兩類,因此選取了兩個質心,什麼時
【深度學習】GAN生成對抗網路原理詳解(1)
一個 GAN 框架,最少(但不限於)擁有兩個組成部分,一個是生成模型 G,一個是判別模型 D。在訓練過程中,會把生成模型生成的樣本和真實樣本隨機地傳送一張(或者一個 batch)給判別模型 D。判別模型 D 的目標是儘可能正確地識別出真實樣本(輸出為“真”,或者1),和儘可能
【轉】【強化學習】Deep Q Network(DQN)演算法詳解
原文地址:https://blog.csdn.net/qq_30615903/article/details/80744083 DQN(Deep Q-Learning)是將深度學習deeplearning與強化學習reinforcementlearning相結合,實現了從
【深度學習】Torch卷積層原始碼詳解
本文以前向傳播為例,詳細分析Torch的nn包中,SpatialConvolution函式的實現方式。 在分析原始檔時,同時給出了github上的連結以及安裝後的檔案位置。 初始化 定義一個卷積層需要如下輸入引數 nInputPlane\nOutpu
【機器學習】特徵選擇之最小冗餘最大相關性(mRMR)與隨機森林(RF)
特徵選擇之最小冗餘最大相關性(mRMR) 最小冗餘最大相關性(mRMR)是一種濾波式的特徵選擇方法,由Peng et.al提出。主要用途有機器學習,影象識別等。 一種常用的特徵選擇方法是最大化特徵與分類變數之間的相關度,就是選擇與分類變數擁有最高相關度的前k個變數。但是,在特徵選擇中,
【機器學習】MAP最大後驗估計和ML最大似然估計區別
A maximum a posteriori probability (MAP) estimate is an estimate of an unknown quantity, that equals the mode of the posterior distribution. The MAP can
【機器學習】貝葉斯線性迴歸(最大後驗估計+高斯先驗)
引言 如果要將極大似然估計應用到線性迴歸模型中,模型的複雜度會被兩個因素所控制:基函式的數目(的維數)和樣本的數目。儘管為對數極大似然估計加上一個正則項(或者是引數的先驗分佈),在一定程度上可以限制模型的複雜度,防止過擬合,但基函式的選擇對模型的效能仍然起著決定性的作用。
【機器學習】【邏輯迴歸】最大似然估計的推導和求解步驟和梯度上升演算法求解
伯努利分佈如果隨機變數X∈{0, 1},並且相應的概率滿足: P(X=1) = p,0<p<1 P(X=0) = 1 - p則稱隨機變數X服從引數為p的伯努利分佈。則隨機變數X的概率密度函式為:邏輯迴歸 邏輯迴歸卻不是迴歸演算法而是一個分類演算法
【機器學習】用QR分解求最小二乘法的最優閉式解
【機器學習】用QR分解求最小二乘法的最優閉式解 寫在前面 QR分解 定義 QR的求解 線性迴歸模型 用QR分解求解最優閉式解 矩陣的條
【機器學習】圖解十大經典機器學習演算法
決策樹(Decision Tree) 根據一些 feature(特徵) 進行分類,每個節點提一個問題,通過判斷,將資料分為兩類,再繼續提問。這些問題是根據已有資料學習出來的,再投入新資料的時候,就可以根據這棵樹上的問題,將資料劃分到合適的葉子上。 決策樹原理示
【機器學習】基於python對大資料量CSV進行操作
在我們日常學習之中,往往會遇到各種各樣的資料。但有時候其龐大的資料量,使得我們無法使用一般的辦公軟體進行操作,與此同時直接將所有資料取到記憶體之中,也有存在溢位的風險。所以,在這種情況下,採用逐行存取的方式對資料進行操作是十分必要的。本文簡單的使用python最為基礎的函式實