GAN之父5篇文章細數GAN在人臉生成方向4年多進展
[ 導讀 ]生成式對抗網路(Generative Adversarial Networks, GAN)自在2014年被Ian Goodfellow提出後,取得巨大的進展,在理論演算法和應用方面有著豐富成果。近日,GAN之父Ian Goodfellow在twitter談論了關於GAN在人臉生成的4年半進展,包含5篇代表性文章,值得關注,人臉生成從早起的模糊階段進化到現在逼真的程度。
GAN在人臉生成這4.5年進展
GAN在人臉生成的進展代表性論文包括5篇,分別是:
1. Generative Adversarial Networks
https://papers.nips.cc/paper/5423-generative-adversarial-nets
谷歌學術引用數高達6800+
這篇論文是最早提出 GAN 的文章,作者 Ian J. Goodfellow 提出了一種新的對抗過程來評價生成模型的效果。GAN 主要分為兩部分:生成模型和判別模型。生成模型的作用是模擬真實資料的分佈,判別模型的作用是判斷一個樣本是真實的樣本還是生成的樣本,GAN 的目標是訓練一個生成模型完美的擬合真實資料分佈使得判別模型無法區分。
生成模型和判別模型之間的互動可以類比為這樣一個場景:生成模型是一個生產假幣的偽造者,他的任務就是要生成假幣然後使用假幣而不被發現,判別模型則是一個警察,他的任務則是識別出那些假幣,兩者之間的較量使得偽造者不斷提升製造假幣的能力,警察不斷提升識別假幣的能力,最終警察無法區分偽造者生產的假幣和真實的貨幣。
2. Unsupervised Representation Learning with Deep Convolutional Generative Adversarial Networks
https://arxiv.org/pdf/1511.06434.pdf
近年來,使用卷積神經網路的監督學習被大量應用於計算機視覺應用中。相對地,使用卷積神經網路的非監督學習則被較少的關注。在這項工作中,我們希望可以幫助縮小監督學習和非監督學習在CNN的成功上差距。我們介紹了CNN的一個類,稱為深度卷積生成對抗網路(DCGANs),這個網路有著明確的結構約束,並且表明他們對非監督學習有著強烈的可信度。在不同的影象資料集上訓練,我們展示出了令人信服的證據,我們的深度卷積對抗對,從物件部分到場景,在生產器和判別器上都能學到層級的表示。此外,我們在一些新的任務上使用學習到的特徵,表明了它們在一般化影象的表示上具有通用性。
3. Coupled Generative Adversarial Networks
https://arxiv.org/pdf/1606.07536.pdf
作者提出了一個coupled generative adversarial network (CoGAN) 來學習關於multi-domain images的聯合分佈出來。本質上GAN是學習一個影象分佈p(x’)出來,這個分佈要足夠逼近訓練樣本的分佈p(x)。這樣的結果就是能夠使我們任意輸入噪聲到訓練好的generator中去,都能夠產生一個足夠像訓練樣本的圖片出來。而這裡作者將單個分佈p(x)拓展到聯合分佈p(x,y)分佈上來了。這樣做的目的很深刻,因為涉及到domain adaption 問題。也就是說,在傳統的domain adaption中,我們需要學習或者訓練一個domain adaptor出來,而這個domain adaptor需要 用source domain和對應的target domain的訓練圖片來訓練。而本文中的CoGAN可以無監督的學習一個聯合分佈。方法就是對網路加上權值共享約束,同時求解一個體育編輯分佈的內積的分佈解(不是很懂)。 作者測試這個CoGAN做聯合分佈學習的任務,包括學習圖片的顏色和深度兩個的聯合分佈,學習一個帶有不同屬性的聯合分佈出來。作者將其拓展到了domain adaption和image transformation task。
4. Progressive Growing of GANs for Improved Quality, Stability, and Variation
論文地址:
http://research.nvidia.com/sites/default/files/publications/karras2017gan-paper-v2.pdf
實現地址:
https://github.com/tkarras/progressive_growing_of_gans
英偉達在本文中描述了一種新的 GAN 訓練方法,其核心思想是同時逐漸地增加生成器與鑑別器的能力:從低解析度開始,新增持續建模精細細節的新層作為訓練過程。這不僅加速了訓練,而且更加穩定,獲得質量超出預想的影象。本文同時提出了一種增加生成影象變體的簡便方法,並在 CIFAR10 上取得了 8.80 的得分。另外的一個額外貢獻是建立 CELEBA 資料集的更高質量版本。
專案地址:
https://github.com//RedditSota/state-of-the-art-result-for-machine-learning-problems
5. A Style-Based Generator Architecture for Generative Adversarial Networks
https://arxiv.org/abs/1812.04948
這篇論文於 2018 年 12 月 12 日被收錄。作者們確認論文中所提出的方法的程式碼,不久後就會對外發布。此外,對於想要了解更多關於這一方法的資訊但不想閱讀全篇論文的讀者,前兩天釋出的一篇博文對這篇論文進行了概述,大家可前往如下地址檢視:
這篇論文針對 GAN 框架提出了另一種觀點。更特別地,它從樣式—遷移設計中汲取靈感,建立了一個生成器架構,它能學習生成影象中的高階屬性(例如在人臉或者背景上訓練時的年齡、身份,質量差的影象的拍攝視角、樣式)以及隨機變數(人臉的雀斑、頭髮細節或者在質量差的影象上訓練時的髮色、面板紋理)。該生成器不僅能學習自動分離這些屬性,還能讓研究者用非常直觀的方式控制合成。
GAN最新綜述論文
來自鄭州大學等學者最新發表一篇綜述論文,詳述GAN在計算機視覺方面的進展,歡迎檢視!
摘要
生成對抗網路的出現為計算機視覺提供了一種新的方法和框架。與傳統的機器學習演算法相比,GAN採用的是對抗性訓練的思想,在特徵學習和表示方面都更加強大。GAN還存在一些問題,如不收斂、模型崩潰和高自由度的不可控性。如何將GAN理論進行改進,並將其應用於計算機視覺相關任務中,已經引起了廣泛的研究。本文系統地綜述了近年來提出的GAN模型及其在計算機視覺中的應用。特別地,我們首先回顧了生成演算法的歷史和發展,GAN的機理,它的基本網路結構和原始GAN的理論分析。然後從機理、生成樣本的視覺結果、Frechet初始距離等方面對經典的GAN演算法進行了綜合比較。通過在公共資料集上進行的大量實驗,從網路結構、效能和適用性方面對這些網路進行了進一步的評估。在此基礎上,研究了GAN在計算機視覺中的幾個典型應用,包括高質量的樣本生成、風格轉換和影象轉換。最後,總結和討論了氮化鎵存在的一些問題,並對未來可能的研究課題進行了展望。
參考連結:
-
https://blog.csdn.net/carrierlxksuper/article/details/60479883
-
https://blog.csdn.net/liuxiao214/article/details/73500737
-
https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=8576508