1. 程式人生 > >卷積神經網絡學習(一)

卷積神經網絡學習(一)

適應 什麽 小學 邊緣 檢測 sim 概念 alt 解釋

一、卷積的物理意義

卷積的重要的物理意義是:一個函數(如:單位響應)在另一個函數(如:輸入信號)上的加權疊加。

在輸入信號的每個位置,疊加一個單位響應,就得到了輸出信號。這正是單位響應是如此重要的原因。

二、卷積的另外解釋

比如說你的老板命令你幹活,你卻到樓下打臺球去了,後來被老板發現,他非常氣憤,扇了你一巴掌(註意,這就是輸入信號,脈沖),於是你的臉上會漸漸地(賤賤地)鼓起來一個包,你的臉就是一個系統,而鼓起來的包就是你的臉對巴掌的響應,好,這樣就和信號系統建立起來意義對應的聯系。下面還需要一些假設來保證論證的嚴謹:假定你的臉是線性時不變系統,也就是說,無論什麽時候老板打你一巴掌,打在你臉的同一位置(這似乎要求你的臉足夠光滑,如果你說你長了很多青春痘,甚至整個臉皮處處連續處處不可導,那難度太大了,我就無話可說了哈哈),你的臉上總是會在相同的時間間隔內鼓起來一個相同高度的包來,並且假定以鼓起來的包的大小作為系統輸出。好了,那麽,下面可以進入核心內容——卷積了!

如果你每天都到地下去打臺球,那麽老板每天都要扇你一巴掌,不過當老板打你一巴掌後,你5分鐘就消腫了,所以時間長了,你甚至就適應這種生活了……如果有一天,老板忍無可忍,以0.5秒的間隔開始不間斷的扇你的過程,這樣問題就來了,第一次扇你鼓起來的包還沒消腫,第二個巴掌就來了,你臉上的包就可能鼓起來兩倍高,老板不斷扇你,脈沖不斷作用在你臉上,效果不斷疊加了,這樣這些效果就可以求和了,結果就是你臉上的包的高度隨時間變化的一個函數了(註意理解);如果老板再狠一點,頻率越來越高,以至於你都辨別不清時間間隔了,那麽,求和就變成積分了。可以這樣理解,在這個過程中的某一固定的時刻,你的臉上的包的鼓起程度和什麽有關呢?和之前每次打你都有關!但是各次的貢獻是不一樣的,越早打的巴掌,貢獻越小,所以這就是說,某一時刻的輸出是之前很多次輸入乘以各自的衰減系數之後的疊加而形成某一點的輸出,然後再把不同時刻的輸出點放在一起,形成一個函數,這就是卷積,卷積之後的函數就是你臉上的包的大小隨時間變化的函數。本來你的包幾分鐘就可以消腫,可是如果連續打,幾個小時也消不了腫了,這難道不是一種平滑過程麽?反映到劍橋大學的公式上,f(a)就是第a個巴掌,g(x-a)就是第a個巴掌在x時刻的作用程度,乘起來再疊加就ok了。

三、卷積的數學定義

技術分享圖片

技術分享圖片

這兩個式子有一個共同的特征:

技術分享圖片

這個特征有什麽意義?

只看數學符號,卷積是抽象的,不好理解的,但是,我們可以通過現實中的意義,來習慣卷積這種運算,正如我們小學的時候,學習加減乘除需要各種蘋果、糖果來幫助我們習慣一樣。

我們來看看現實中,這樣的定義有什麽意義。

2 離散卷積的例子:丟骰子

我有兩枚骰子:兩枚骰子點數加起來為4的概率是多少?

技術分享圖片

那麽,兩枚骰子點數加起來為4的情況有:

技術分享圖片

技術分享圖片

技術分享圖片

因此,兩枚骰子點數加起來為4的概率為:
f(1)g(3)+f(2)g(2)+f(3)g(1)

符合卷積的定義,把它寫成標準的形式就是:

技術分享圖片

四、圖像處理

在數字圖像處理中, 有一種基本的處理方法:線性濾波

. 待處理的平面數字圖像可被看做一個大矩陣, 圖像的每個像素對應著矩陣的每個元素, 假設我們平面的分辨率是 1024*768, 那麽對應的大矩陣的行數= 1024, 列數=768.

用於濾波的是一個濾波器小矩陣(也叫卷積核), 濾波器小矩陣一般是個方陣, 也就是 行數列數 相同, 比如常見的用於邊緣檢測的 Sobel 算子 就是兩個 3*3 的小矩陣.

進行濾波就是對於大矩陣中的每個像素, 計算它周圍像素和濾波器矩陣對應位置元素的乘積, 然後把結果相加到一起, 最終得到的值就作為該像素的新值, 這樣就完成了一次濾波.

技術分享圖片

對圖像大矩陣和濾波小矩陣對應位置元素相乘再求和的操作就叫卷積(Convolution)或協相關(Correlation).

協相關(Correlation)和卷積(Convolution)很類似, 兩者唯一的差別就是卷積在計算前需要翻轉卷積核, 而協相關則不需要翻轉.

為什麽卷積要翻轉?

卷積中的翻轉是對於時間上的概念來說的,舉個例子,一臺機器每個小時生成一個饅頭,速度為f(t),那麽一天生成的總量為:

技術分享圖片,而饅頭的腐敗函數為g(t),那麽第一個小時生產出來的包子,經過一天(24小時),f(1)*g(24),這裏為什麽不是f(1)*g(1)?

因為對於現在來說,已經過去了24小時,所以對於函數g來說,它的腐敗程度應該時在t=24的時候的值。所以g現在就是被翻轉了。

卷積神經網絡學習(一)