1. 程式人生 > >卷積神經網路(CNN)防止過擬合的方法

卷積神經網路(CNN)防止過擬合的方法

   1. data augmentation: 這點不需要解釋太多,所有的過擬合無非就是訓練樣本的缺乏和訓練引數的增加。一般要想獲得更好的模型,需要大量的訓練引數,這也是為什麼CNN網路越來越深的原因之一,而如果訓練樣本缺乏多樣性,那再多的訓練引數也毫無意義,因為這造成了過擬合,訓練的模型泛化能力相應也會很差。大量資料帶來的特徵多樣性有助於充分利用所有的訓練引數。data augmentation的手段一般有: 1)收集更多資料  2)對已有資料進行crop,flip,加光照等操作  3)利用生成模型(比如GAN)生成一些資料。