1. 程式人生 > >GAN之父在NIPS 2016上做的報告:兩個競爭網路的對抗(含譯文下載)

GAN之父在NIPS 2016上做的報告:兩個競爭網路的對抗(含譯文下載)

GAN之父在NIPS 2016上做的報告:兩個競爭網路的對抗

作者:Ian Goodfellow
翻譯:七月線上DL翻譯組
譯者:範詩劍 汪識瀚 李亞楠
審校:管博士 寒小陽 加號
責編:翟惠良 July
宣告:本譯文僅供學習交流,有任何翻譯不當之處,敬請留言指正。轉載請註明出處。
下載https://ask.julyedu.com/question/7664

前言

    今年春節前,萌生一個想法,深度學習越發火熱,但一些開創性的論文多半來自國外,如果組織一些朋友把這些英文論文翻譯成中文,是不是可以讓資訊流通的更快、更順暢?

    說幹就幹。春節前兩週組建好七月線上DL翻譯組,然後翻譯組的小夥伴們即開始翻譯,有一組更是在春節期間翻譯了GAN之父在NIPS 2016上做的長達60頁的報告,當時著實震驚了一把。而且,這篇報告中的GAN也不過是2016年剛火起來,如此,本報告兼具經典和最新,值得好好學習一下。


    下面,我們就來看看GAN之父到底在這篇長達60頁的論文當中說了些啥。

    事情回到2016年的NIPS上,Ian Goodfellow做了主題為《生成對抗網路(Generative Adversarial Networks)》的報告,當時他的報告包括以下主題:
  1. 為什麼生成式模型是一個值得研究的課題
  2. 生成式模型的工作原理,以及與其他生成模型的對比
  3. 生成式對抗網路的原理細節
  4. GAN相關的研究前沿
  5. 目前結合GAN與其他方法的主流影象模型
關於原英文精闢簡報請點選——
PDF版:www.iangoodfellow.com/slides/2016-12-04-NIPS.pdf
KeyNote版:www.iangoodfellow.com/slides/2016-12-04-NIPS.key


一句話描述GAN——

    GAN之所以是對抗的,是因為GAN的內部是競爭關係,一方叫generator,它的主要工作是生成圖片,並且儘量使得其看上去是來自於訓練樣本的。另一方是discriminator,其目標是判斷輸入圖片是否屬於真實訓練樣本
    更直白的講,將generator想象成假幣制造商,而discriminator是警察。generator目的是儘可能把假幣造的跟真的一樣,從而能夠騙過discriminator,即生成樣本並使它看上去好像來自於真實訓練樣本一樣。

如下圖中的左右兩個場景:


為什麼要研究GAN

    你或許會這麼以為:對於計算機視覺領域該模型雖然能提供更多的影象,但這恰恰是真實世界並不缺少的


GAN的基本原理

生成對抗網路是一種生成模型(Generative Model),其背後最基本的思想就是從訓練庫裡獲取很多的訓練樣本(Training Examples),從而學習這些訓練案例生成的概率分佈。
- 生成模型為高維分佈的表示與處理提供了一個絕佳的測試機會——此類高維分佈往往是工程應用中的重要研究物件;

- 生成式模型能以多種方式嵌入至強化學習中;

- 生成模型可以接受缺失訓練資料,或者可以被用來預測缺失資料。生成對抗模型,使得機器學習可以處理複合式問題。


基於GAN的應用

——iGAN(互動式生成對抗網路)

    使用者可以繪製一幅草稿,然後iGAN會使用GAN模型來生成最相似的合理影象。

——IAN(自省對抗網路)


——圖對圖變換

    將單幅衛星影象變為地圖;將塗鴉轉化為相片級別影象等;由於許多這樣的轉換都存在超過一種的正確輸出,為保證模型訓練的正確性,使用生成模型就有了必要性。


GAN之最大似然估計的模型

GAN的損失函式


DCGAN——深度的卷積GAN


GAN的tips和tricks——(下文簡稱t&t)

    很難具體的說哪些技巧更有效,實際情況是,它們可以在某些任務中提升效果,也可能在另一些任務中起相反作用。因此這些技巧可以拿來嘗試,但不要把它們當成是某種最優方法。具體包括:使用標籤參與訓練;單邊標籤平滑;將batch normalization虛擬化;是否平衡G和D(小編理解:作者目前的觀點是,GANs主要是估計兩個概率密度分佈的比值,而只有當鑑別器足夠完美時才有可能正確估值。所以這裡更應該強化D函式)。
關於怎樣訓練GAN模型,詳見GitHub庫:http://github.com/soumith/ganhacks

t&t1.使用標籤參與訓練

t&t2.單邊標籤平滑

    GAN的工作方式是讓discriminator估算兩個概率密度分佈的比值,但是深度神經網路傾向於生成過高置信度的結果,容易走極端,這對模型是不利的。尤其是基於對抗生成的網路,它的分類器傾向線性推斷併產生出置信度極高的結果。

t&t3.將batch normalization虛擬化



後記

  • 關於我們。七月線上DL翻譯組是由一群熱愛翻譯、熱愛DL、英語六級以上的研究生或博士組成,有七月線上的學員,也有非學員。本翻譯組翻譯的所有全部論文僅供學習交流,宗旨是:彙集頂級內容 幫助全球更多人。目前已經翻譯數十篇頂級DL論文,詳見:https://ask.julyedu.com/question/7612
  • 加入我們。如果你過了英語六級、是研究生或博士、且熟練DL、熱愛翻譯,歡迎加入我們翻譯組,微博私信@研究者July
  • GAN課程。為了幫助更多人更好的瞭解、學習、入門GAN,今年上半年,我們七月線上亦會開《生成對抗網路班》,從頭到尾詳解GAN的原理及其實戰應用,敬請期待。
    七月線上July、二零一七年三月七日。