1. 程式人生 > >卷積的理解

卷積的理解

之前,習慣把記錄和總結的知識點放到雲筆記上,但發現CSDN這個部落格註冊好久了,但卻沒有往上面放文章,所以決定把以前的筆記整理一下,放到這裡來,以便交流學習。

關於訊號的卷積

最初認識卷積來源於《訊號與系統》這門課,到現在對這塊還是邏輯上認可,直觀上迷茫的狀態,重新學習一下,簡單總結如下:

還是從《訊號與系統》裡的知識開始講起,單位衝激訊號δ(n)僅在n=0時,取得值1,其他位置皆為0。δ(n)是一類最簡單的訊號,我們可以將任意一個複雜的訊號分解為多個類似δ(n)這樣簡單的訊號。例如,對於一個任意的離散訊號x(n),如下圖(a)所示,當n=k時,其取值為x(k),用單位衝激訊號來表示的話,可寫為:

x(k)=x(k)δ(nk)=x(n)δ(nk)

式中,δ(nk)表示單位衝激訊號的延時,如圖b。這樣,將s(n)δ(nk)相乘之後,所得到的的訊號除了在n=k處取值為x(k)而不為零外,其他各點均為零。

這裡寫圖片描述

如果重複對x(n)δ(nm)相乘,其中m是另一個延時(mk),則所得到的的訊號僅在n=m時不為零,其值為x(m),而在其餘各處均為零。這說明,訊號x(n)與單位衝激訊號的某個延時δ(nm)相乘,實際上就是將訊號x(n)n=m處的單個值x(m)挑選出來。因此,如果在所有可能的延時處,即<m<,都重複這樣的動作,然後把得到的結果相加,即可得到x(n)

的另外一種表示式:

x(n)=m=x(m)δ(nm)

這樣,就將任意的一個訊號分解為多個衝激訊號的疊加。

單位衝激響應是輸入訊號為單位衝激訊號δ(n)時所對應的系統輸出,常用h(n)來表示。對於執行緒時不變系統,如果知道了單位衝激訊號的輸出,根據疊加定理,就可知道任意複雜訊號的輸出。可得:

y(n)=m=x(m)h(nm)

上式就是即為線性卷積,通常稱為卷積,可以簡寫為:y(n)=x(n)h(n)

對於連續訊號,同理,任意訊號可用衝激訊號的組合表示,由衝激響應h(t)可得:

y(t)=x(τ)h(tτ)dτ

卷積方法的原理就是將訊號分解為衝激訊號之和。

數學上的卷積

卷積是分析數學中一種重要的運算。設: f(x),g(x)R 上的兩個可積函式,作積分:

f(τ)g(xτ)dτ

可以證明,對於所有x(,+),上述積分都是存在的。這樣,隨著x的不同取值,這個積分就定義了一個新函式h(x),稱為函式 fg 的卷積,記為h(x)=(fg)(x)。可以驗證(gf)(x)=(fg)(x),且h(x)仍為可積函式。

在泛函分析中,卷積是通過兩個函式fg生成第三個函式的一種數學運算元,表徵函式f與經過翻轉和平移的g的乘積函式所圍成的的曲邊梯形的面積。

圖示兩個方形脈衝波的卷積。其中函式”g”首先對τ=0翻轉,接著平移”t”,成為g(tτ)。那麼重疊部分的面積就相當於”t”處的卷積,其中橫座標代表待變數τ以及新函式fg的自變數”t”。

這裡寫圖片描述

圖示方形脈衝波和指數衰退的脈衝波的卷積(後者可能出現於RC電路中),同樣地重疊部分面積就相當於”t”處的卷積。注意到因為”g”是對稱的,所以在這兩張圖中,反射並不會改變它的形狀。

這裡寫圖片描述

上圖中,第一行分別代表兩個函式f(t)

相關推薦

CNN中的理解和實例

垂直 name 平移 圖片 維度 都是 logs 窗口大小 表示 卷積操作是使用一個二維卷積核在在批處理的圖片中進行掃描,具體的操作是在每一張圖片上采用合適的窗口大小在圖片的每一個通道上進行掃描。 權衡因素:在不同的通道和不同的卷積核之間進行權衡 在tensorflow中的

cnn理解

激活 不同 2個 原因 進行 處理 cnn 輸出 輸入 首先輸入圖像是28*28處理好的圖。 第一層卷積:用5*5的卷積核進行卷積,輸入為1通道,輸出為32通道。即第一層的輸入為:28*28圖,第一層有32個不同的濾波器,對同一張圖進行卷積,然後輸出為32張特征圖。需要32

矩陣理解

在影象處理的過程中,經常會看到矩陣卷積的概念,比如說用一個模板去和一張圖片進行卷積,因此很有必要了解矩陣卷積到了做了什麼,具體又是怎麼計算的。  在matlab中有conv2函式對矩陣進行卷積運算,其中有一個shape引數,取值具體有三種:  -full  - (d

Deep Learning 30: 理解

1. 這篇文章以賈清揚的ppt說明了卷積的實質,更說明了卷積輸出影象大小應該為: 假設輸入影象尺寸為W,卷積核尺寸為F,步幅(stride)為S(卷積核移動的步幅),Padding使用P(用於填充輸入影象的邊界,一般填充0),那麼經過該卷積層後輸出的影象尺寸為(W-F+2P)/S+1。 2.它寫出為什麼會用

深度學習-理解

1.這篇文章以賈清揚的ppt說明了卷積的實質,更說明了卷積輸出影象大小應該為: 假設輸入影象尺寸為W,卷積核尺寸為F,步幅(stride)為S(卷積核移動的步幅),Padding使用P(用於填充輸入影象的邊界,一般填充0),那麼經過該卷積層後輸出的影

各類濾波器比較 &&理解

巴特沃斯濾波器、切比雪夫濾波器、貝塞爾濾波器均包括模擬濾波器和數字濾波器兩種形式。  數字濾波器是指完成訊號濾波處理功能的,用有限精度演算法實現的離散時間線性非時變系統,其輸入是一組數字量,其輸出是經過變換的另一組數字量。因此,它本身即可以是用數字硬體裝配成的一臺完成給定運算

『cs231n』神經網絡的可視化與進一步理解

都是 lan 精度 輸出 上采樣 一行 ear 模型 運算 cs231n的第18課理解起來很吃力,聽後又查了一些資料才算是勉強弄懂,所以這裏貼一篇博文(根據自己理解有所修改)和原論文的翻譯加深加深理解。 可視化理解卷積神經網絡 原文地址 一、相關理論 本篇博文主要講解201

關於tensorflow conv2d備忘的一點理解

sha on() 一點 des span pan flow 0.12 and **************input************** [[[[-0.36166722 0.04847232 1.20818889 -0.1794038 -0.53244466

關於的一些理解

基礎 表達 是我 分享 很多 由於 其中 mage 書寫   信號與系統課程中的一個比較核心的思想就是把信號分解成為由很多移位的單位脈沖信號的線性累積,在根據一個單位脈沖通過LTI系統的響應,計算出輸入信號對於的輸出。這樣的一個好處在於,對於所有的LTI系統,就只需

註意:運算的簡單理解

.cn clas images 運算 strong pan 技術分享 技術 ron 卷積算子計算方法(卷積運算) 卷積操作是對圖像處理時,經常用到的一種操作。它具有增強原信號特征,並且能降低噪音的作用。 那麽具體是如何計算的呢? 步驟: 1)將算子圍繞

[OpenCV學習]徹底理解的含義

clas enc 成了 學習 元素 open mage .com com 看了很多關於卷積的介紹,一直感覺不怎麽理解,今天徹底研究下: 我們知道圖像是由像素構成的,圖像中的行和列一起構成了圖像矩陣,比如一個分辨率800*400的圖像,同時也是一個大矩陣,這個矩陣有著40

理解CNN層與池化層計算

CNN網絡 卷積層 池化層 深度學習 OpenCV 概述 深度學習中CNN網絡是核心,對CNN網絡來說卷積層與池化層的計算至關重要,不同的步長、填充方式、卷積核大小、池化層策略等都會對最終輸出模型與參數、計算復雜度產生重要影響,本文將從卷積層與池化層計算這些相關參數出發,演示一下不同步長、

深度學習—理解

最優化 span 好的 權重 獨立 邊界 濾波器 基礎 包含 1、參數共享的道理   如果在圖像某些地方探測到一個水平的邊界是很重要的,那麽在其他一些地方也會同樣是有用的,這是因為圖像結構具有平移不變性。所以在卷積層的輸出數據體的55x55個不同位置中,就沒有必要重新學習去

神經網絡CNNs的理解與體會

聯系 長度 發生 緩解 包含 sigmoid 完成 eight work https://blog.csdn.net/shijing_0214/article/details/53143393 孔子說過,溫故而知新,時隔倆月再重看CNNs,當時不太了解的地方,又有了

轉置理解

sam ont 原來 ron 取出 http toe 輸入a inpu 看了很多反卷積和轉置卷積的文章,似乎還是一頭霧水,記錄下自己理解的過程~ 有人一句話總結:逆卷積相對於卷積在神經網絡結構的正向和反向傳播中做相反的運算。其實還是不是很理解。 反卷積(轉置卷積)通常用來兩

[轉載]對深度可分離、分組、擴張、轉置(反)的理解

mes ise 相關性 區域 nat 1.2 log v操作 深度 1. 深度可分離卷積(depthwise separable convolution) 在可分離卷積(separable convolution)中,通常將卷積操作拆分成多個步驟。而在神經網絡中通常使用的

多通道後通道數計算理解

記憶為:卷積的深度(通道數)和卷積核的個數一致。 1、單通道卷積                                 &

1x1核的理解

1x1卷積核的作用主要有兩點: 1、實現跨通道的資訊融合 2、實現通道數的升維與降維 3、增加網路的非線性 實現跨通道資訊的融合:加入當前層的特徵矩陣為224x224x100,而下一層想要得到224x224x50,這時就可以通過1x1的卷積核進行跨通道資訊融合,當然這時也

神經網路理解(一):濾波器的意義

歡迎大家關注我們的網站和系列教程:http://www.tensorflownews.com/,學習更多的機器學習、深度學習的知識! 荔枝boy 卷積神經網路的發展 卷積神經網路的重要性 卷積神經網路與影象識別 濾波器 一.卷積神經網路的發展

CNN中feature map、核、核個數、filter、channel的概念解釋,以及CNN 學習過程中核更新的理解

feature map、卷積核、卷積核個數、filter、channel的概念解釋 feather map的理解 在cnn的每個卷積層,資料都是以三維形式存在的。你可以把它看成許多個二維圖片疊在一起(像豆腐皮一樣),其中每一個稱為一個feature map。 feather map 是怎