1. 程式人生 > >CNN實戰1:實現模仿大師繪畫

CNN實戰1:實現模仿大師繪畫

bsp 向量 還在 mnist 變化 使用 ext 濾鏡 完成

0. 風一更

有幾天沒有更新了,因為不知道小白喵的學習情況。小黑喵學習深度學習主要還是更偏NLP一點。在文本數據使用word2vec處理為向量矩陣這部分是視覺方向接觸不到的,之前想更這部分內容,不過既然是個方法與工具,就覺得意義不是很大,本質上要處理文本還是將其轉換為適合神經網絡的矩陣向量輸入。

前面的章節介紹了LeNet-5和CNN的基本網絡構成,代碼給出的是這兩種網絡解決MNIST手寫識別問題。如果能對CNN類卷積神經網絡有大致印象(它有哪些層,大體上是如何完成conv-relu-pool,層與層參數個數如何計算,全連接層如何工作,原始輸入是如何被一層一層的網絡層操作、矩陣的大小怎麽一步步變化的),我覺得就已經非常好了。更細節的問題需要對照博客內容和代碼一步一步的細致看看。比如代碼這一步在構建網絡的conv層,那麽查一下該函數的參數說明,對照論文或博客中的原理,可能認識會更清晰一點。把代碼跑起來,會更有成就感一些。

這一個博客要實現的是,利用CNN網絡,完成對某一名畫A的作畫風格的學習後,將這種風格應用於另外一幅畫B。即使用A的作畫風格,保留B的骨架,將兩者融合。本次仿真就沒什麽數據集了,只需要兩幅畫。原理其實比較簡單,利用CNN網絡,將名畫A的作畫特征進行存取,然後保留這些訓練好的過程矩陣(參數),輸入畫B後將這些參數矩陣與B的矩陣融合(參數矩陣相當於濾鏡,用濾鏡去看畫B)。

代碼還在調試中,之後再繼續更了。


(Continue...小黑喵施工現場...)

CNN實戰1:實現模仿大師繪畫