1. 程式人生 > >PROGRESSIVE GROWING OF GANS FOR IMPROVED QUALITY, STABILITY, AND VARIATION Tero Karras

PROGRESSIVE GROWING OF GANS FOR IMPROVED QUALITY, STABILITY, AND VARIATION Tero Karras

論文為:PROGRESSIVE GROWING OF GANS FOR IMPROVED QUALITY, STABILITY, AND VARIATION

摘要:

1.提出了一種新的訓練對抗神經網路的方法。核心思想是逐步訓練生成器和分別器:從低解析度開始,隨著訓練程序推進,逐步增加新的層來提煉細節。這種方法不僅加快了訓練速度並且更加穩定,可以產生高質量的影象

2.提出了一些實施的細節對於消除生成器和分辨器的不好的競爭

3.提出了新的方法來評估GAN產生的結果

 

首先從低解析度的影象開始訓練,然後逐漸增加生成器和分別器層數。這種逐步增加的訓練方法能夠首先訓練影象的大框架,然後逐步轉義注意力到細節上去,而不是一下子學完所有的東西。

使用的生成器和分別器彼此之間是映象關係。當新的層被加入網路時,我們就平滑模糊。如圖2所示,這樣就避免給已經訓練好的網路帶來突然地變化

我們的訓練首先輸入4*4畫素圖片,然後輸入8*8......1024*1024畫素的圖片(也就是解析度越來越高),解析度增高的同時,網路的層數也在增加

 

在(b)中,我們對那些處理高解析度的層類似於殘差模組一樣(圖b中確實是這樣的,16*16經過加倍之後一個是直接輸出,一個還要經過32*32層的處理在輸出,最後用線性疊加的方式整合在一起,輸出一個32*32的圖片)。torgb表示將資訊轉換為rgb圖。from rgb正相反,表示從彩色圖中提取資訊,他們都是1*1的卷積模組。當訓練分類器的時候,我們用真實的圖片降低解析度到現在的解析度。在解析度轉換的時候,使用類似於generate的方式,對以前的解析度進行插值,然後線性組合兩種解析度

GAN網路層中的引數由於兩個網路的不健康競爭,會變得很大。所以以前的人就提出了batch_norm法來使各個權重回歸中間區域。但是作者他們卻沒有在GAN上發現這個問題,因此認為GAN的實際要求會限制引數的變大。作者使用了不同的方法,包含了兩個元素,但這兩個元素中都不包含可學習的引數

 

表2:每個網路主要是由三層模組組層的。最後一個1*1的卷積層在generator中的是torgb模組,在discriminator中的則是fromrgb模組我們從4*4解析度的圖片開始,訓練網路直到我們給descrimnator訓練完800k張真實圖片。然後我們交替進行兩個步驟:訓練第一個3層模組用800k張圖,穩定網路.....

降取樣和升取樣2*2的average pooling

minibatch,在影象解析度小的時候大,後面隨著解析度越來越高,minibatch越來越小