1. 程式人生 > >深度學習(五十四)圖片翻譯WGAN實驗測試

深度學習(五十四)圖片翻譯WGAN實驗測試

圖片翻譯WGAN實驗測試

WGAN相比於GAN的優點在於:具有更高的穩定性。在原始的WGAN中,作者通過一堆的理論,提出了WGAN,理論證明n多頁,不過程式碼實現就兩行:

(1)去掉了判別網路的判別的概念,在原始的GAN中,判別網路的損失函式為最大化交叉熵損失函式:


也就是說判別網路的輸出是一個0~1的概率值,用於表示圖片真偽的概率。

然而在WGANs中,fw的輸出不需要是一個概率值,這就是為什麼作者不把fw稱之為判別器的原因,而是把它稱作評價器,因為我們壓根沒有明確的進行訓練圖片真偽判別。所以fw中,去掉了最後一層的sigmoid啟用函式,採用直接真樣本與假樣本的fw之差作為損失函式。當然生成網路的損失函式也跟著去掉了log

(2)判別網路fw引數裁剪,把判別網路的引數裁剪到了指定的範圍-0.01~0.01之間;

(3)學習方法採用RMS;

具體虛擬碼如下:


為此我們利用文獻《Image-to-Image Translation with Conditional Adversarial Networks》的條件對抗網路進行圖片生成測試,本文主要實驗WGAN和GAN在條件對抗網路中的穩定性實驗,下面是原始的GAN在條件對抗網路中的實驗結果:



可以看到採用原始的GAN進行訓練的時候,生成的圖片質量很不穩定,圖片清晰度並不是隨著迭代的進行,不斷的提高。比如第2800次迭代、,生成的圖片突然就跑偏了,變得很差,穩定性很差。接著我們看看WGAN的訓練結果:




很明顯,WGAN生成的過程基本很穩定。