1. 程式人生 > >機器學習基礎--判別模型和生成模型

機器學習基礎--判別模型和生成模型

判別模型(Discriminative model)和生成模型(generative model)

  監督學習又可以分為兩類,(只有監督學習才會有判別和生成的概念)
  1)判別模型(Discriminative model):SVM和邏輯迴歸
  2)生成模型(generative model):實際上,生成模型是對聯合概率分佈p(x,y)=p(x|y)p(y)進行學習的。常用的生成模型有樸素貝葉斯,隱馬爾可夫等,HMM等。

感性認識

例子1

  對面一個人走過來,和你說了一句話,你需要識別出她說的到底是漢語、英語還是法語等。那麼你可以有兩種方法達到這個目的:
  1)學習每一種語言,你花了大量精力把漢語、英語和法語等都學會了,我指的學會是你知道什麼樣的語音對應什麼樣的語言。然後再有人過來對你哄,你就可以知道他說的是什麼語音。這就是GM----生成模型。
  2)不去學習每一種語言,你只學習這些語言模型之間的差別,然後再分類。意思是指我學會了漢語和英語等語言的發音是有差別的,我學會這種差別就好了。這就是DM----判別模型。

例子2

  對於跟蹤演算法而言
  生成模型:一般是學習一個代表目標的模型,然後通過它去搜索影象區域,然後最小化重構誤差。類似於生成模型描述一個目標,然後就是模式匹配了,在影象中找到和這個模型最匹配的區域,就是目標了。如:argmax。
  判別模型:將跟蹤問題看成一個二分類問題,然後找到目標和背景的決策邊界。它不管目標是怎麼描述的,那隻要知道目標和背景的差別在哪,然後你給一個影象,它看它處於邊界的那一邊,就歸為哪一類。

理論解釋

  機器學習方法可以分為生成方法(generative approach)和判別方法(discriminative approach),所學到的模型分別稱為生成式模型(generative model)和判別式模型(discriminative model)。

  1)生成式模型
  生成模型與判別模型恰恰相反,通常給出的輸入是影象具備的性質,而輸出是性質對應的影象。這種生成模型相當於構建了影象的分佈,因此利用這類模型,我們可以完成影象自動生成(取樣)、影象資訊補全等工作。
  生成方法通過觀測資料學習樣本與標籤的聯合概率分佈P(X, Y),訓練好的模型能夠生成符合樣本分佈的新資料,它可以用於有監督學習和無監督學習。
  在深度學習之前已經有很多生成模型,但苦於生成模型難以描述難以建模,科研人員遇到了很多挑戰,而深度學習的出現幫助他們解決了不少問題。本章就介紹基於深度學習思想的生成模型——VAE和GAN,以及GAN的變種模型。
  
  2)判別式模型
  判別式模型,這種模型的形式主要是根據原始影象推測影象具備的一些性質,例如根據數字影象推測數字的名稱,根據自然場景影象推測物體的邊界。
  基本是隻有在說分類問題時才有“判別”的概念!!

相關推薦

機器學習基礎--判別模型生成模型

判別模型(Discriminative model)和生成模型(generative model)   監督學習又可以分為兩類,(只有監督學習才會有判別和生成的概念)   1)判別模型(Discriminative model):SVM和邏輯迴歸   2)生成模

判別模型生成模型——機器學習

轉載自:https://www.cnblogs.com/zeze/p/7047630.html    判別式模型(discriminative model) 產生式模型(generative model)

判別模型生成模型

使用 sin cow ria regress gauss 生成 == 給定 【摘要】 - 生成模型:無窮樣本==》概率密度模型 = 產生模型==》預測 - 判別模型:有限樣本==》判別函數 = 預測模型==》預測 【簡介】 簡單的說,假設o是觀察值,

判別模型生成模型的區別

    什麼是判別模型(Discriminative Model)和生成模型(Generative Model)? 一個通俗易懂的解釋判別模型和生成模型可以點選這裡檢視,這裡我摘錄如下:     Let's say you have input data x and you want to classif

機器學習基礎】從感知機模型說起

感知機(perceptron) 感知器(perceptron)1957年由Rosenblatt提出,是神經網路與支援向量機的基礎。感知器是二類分類的線性分類模型,其輸入為例項的特徵向量,輸出為例項的類別,取+1和-1二值。感知機對應於輸入空間(特徵空間)中將例項劃分為正

揭祕阿里小蜜:基於檢索模型生成模型相結合的聊天引擎

面向 open domain 的聊天機器人無論在學術界還是工業界都是個有挑戰的課題,目前有兩種典型的方法:一是基於檢索的模型,二是基於 Seq2Seq 的生成式模型。前者回復答案可控但無法處理長尾問題,後者則難以保證一致性和合理性。 本期推薦的論文筆記來自 Pa

機器學習之判別式模型生成模型

https://www.cnblogs.com/nolonely/p/6435213.html   判別式模型(Discriminative Model)是直接對條件概率p(y|x;θ)建模。常見的判別式模型有線性迴歸模型、線性判別分析、支援向量機SVM、神經網路、boosting

機器學習基礎(二)——詞集模型(SOW)詞袋模型(BOW)

(1)詞集模型:Set Of Words,單詞構成的集合,集合自然每個元素都只有一個,也即詞集中的每個單詞都只有一個 (2)詞袋模型:Bag Of Words,如果一個單詞在文件中出現不止一次,並統計

統計學習:泛化能力、生成模型判別模型、分類、標註迴歸問題

宣告: 1.本文章為參考相關書籍和前輩經驗所寫,只為個人學習專用。 2.若有內容錯誤之處請大家留言改進。 3.若有引用不當之處,請告知本人,會進行相關處理。 泛化能力 泛化誤差 學習方法的泛化能力(generalization ab

機器學習判別模型vs生成模型

判別模型vs生成模型 條件概率分佈p(y|x) 從概率的角度來看監督學習的話,其實就是從資料集中學習條件概率分佈p(y|x)。其中,x∈Rn表示n維資料特徵,y∈R表示資料對應的類別標籤。給定一個x,模型計算出x屬於各個類別標籤y的概率p(y|x),然後

機器學習基礎——模型參數評估與選擇

比較 html 貝葉斯分類 試驗 聚類算法 偏差 height 所有 識別 當看過一些簡單的機器學習算法或者模型後,對於具體問題該如何評估不同模型對具體問題的效果選擇最優模型呢。 1. 經驗誤差、泛化誤差 假如m個樣本中有a個樣本分類錯誤 錯誤率:E = a / m;

機器學習基礎】理解為什麼機器可以學習1——PAC學習模型

引言 自從下定決心認真學習機器學習理論開始,接觸到很多基本問題,但其實都不是很理解,比如損失函式、風險函式、經驗結構最小化、結構風險最小化、學習方法的泛化能力、VC維等,這些概念在學習中都純屬空泛的概念存在,我都不理解這些概念存在的意義。 為什麼會存在這樣的問題呢?我自

Python機器學習筆記:深入理解Keras中序貫模型函式模型

  先從sklearn說起吧,如果學習了sklearn的話,那麼學習Keras相對來說比較容易。為什麼這樣說呢?   我們首先比較一下sklearn的機器學習大致使用流程和Keras的大致使用流程: sklearn的機器學習使用流程: 1 2 3 4

機器學習基礎--模型的基本假設

模型的基本假設   理解模型的基本假設,看自己的資料是否符合這種假設。任何模型都是有某種假設的,如果資料不符合這種假設,就不太可能學出有意義的模型並用於預測。 比如LDA(主題模型)   假設是在同樣一批文件中經常共現的詞,語義上往往是相關的。這種特性不僅在自然

特徵工程模型融合--機器學習--思維導圖筆記(29)

一、思維導圖(點選圖方法) 二、補充筆記 (1)常見的特徵工程主要指對各種型別的特徵進行處理,包括數值型特徵、類別型特徵、時間型特徵和其他型別特徵和組合特徵。對於數值型特徵,可以進行幅度調整(包括min-max縮放、標準化、歸一化)、統計值分析(最大值、最小值、平

機器學習:交叉驗證模型選擇與Python程式碼實現

前言:本篇博文主要介紹交叉驗證(cross validation)和模型選擇,首先介紹相關的基礎概念和原理,然後通過Python程式碼實現交叉驗證和模型評估以及選擇。特別強調,其中大多理論知識來源於《統計學習方法_李航》和斯坦福課程翻譯筆記。 1.分類器的評價 評價分類

機器學習基礎——讓你一文學會樸素貝葉斯模型

今天這篇文章和大家聊聊樸素貝葉斯模型,這是機器學習領域非常經典的模型之一,而且非常簡單,適合初學者入門。 樸素貝葉斯模型,顧名思義和貝葉斯定理肯定高度相關。之前我們在三扇門遊戲的文章當中介紹過貝葉斯定理,我們先來簡單回顧一下貝葉斯公式: \[P(A|B)=\frac{P(A)P(B|A)}{P(B)}\] 我

機器學習基礎——帶你實戰樸素貝葉斯模型文字分類

本文始發於個人公眾號:TechFlow 上一篇文章當中我們介紹了樸素貝葉斯模型的基本原理。 樸素貝葉斯的核心本質是假設樣本當中的變數服從某個分佈,從而利用條件概率計算出樣本屬於某個類別的概率。一般來說一個樣本往往會含有許多特徵,這些特徵之間很有可能是有相關性的。為了簡化模型,樸素貝葉斯模型假設這些變數是獨

機器學習(ML)七之模型選擇、欠擬合過擬合

訓練誤差和泛化誤差 需要區分訓練誤差(training error)和泛化誤差(generalization error)。前者指模型在訓練資料集上表現出的誤差,後者指模型在任意一個測試資料樣本上表現出的誤差的期望,並常常通過測試資料集上的誤差來近似。計算訓練誤差和泛化誤差可以使用之前介紹過的損失函式,例如線

機器學習筆記】第二章:模型評估與選擇

機器學習 ini ppi 第二章 err cap ner rate rac 2.1 經驗誤差與過擬合 1. error rate/accuracy 2. error: training error/empirical error, generalization error