1. 程式人生 > >高斯核函式(徑向基函式)

高斯核函式(徑向基函式)

數學表示

所謂徑向基函式 (Radial Basis Function 簡稱 RBF), 就是某種沿徑向對稱的標量函式。 通常定義為空間中任一點x到某一中心xc之間歐氏距離的單調函式 , 可記作 k(||x-xc||), 其作用往往是區域性的 , 即當x遠離xc時函式取值很小。最常用的徑向基函式是高斯核函式 ,形式為 k(||x-xc||)=exp{- ||x-xc||^2/(2*σ)^2) } 其中xc為核函式中心,σ為函式的寬度引數 , 控制了函式的徑向作用範圍。

計算機視覺中的作用


在計算機視覺中,有時也簡稱為高斯函式。高斯函式具有五個重要的性質,這些性質使得它在早期影象處理中特別有用.這些性質表明,高斯平滑濾波器無論在空間域還是在頻率域都是十分有效的低通濾波器,且在實際影象處理中得到了工程人員的有效使用.高斯函式具有五個十分重要的性質,它們是:
(1)二維高斯函式具有旋轉對稱性,即濾波器在各個方向上的平滑程度是相同的.一般來說,一幅影象的邊緣方向是事先不知道的,因此,在濾波前是無法確定一個方向上比另一方向上需要更多的平滑.旋轉對稱性意味著高斯平滑濾波器在後續邊緣檢測中不會偏向任一方向.
(2)高斯函式是單值函式.這表明,高斯濾波器用畫素鄰域的加權均值來代替該點的畫素值,而每一鄰域畫素點權值是隨該點與中心點的距離單調增減的.這一性質是很重要的,因為邊緣是一種影象區域性特徵,如果平滑運算對離運算元中心很遠的畫素點仍然有很大作用,則平滑運算會使影象失真.
(3)高斯函式的傅立葉變換頻譜是單瓣的.正如下面所示,這一性質是高斯函式付立葉變換等於高斯函式本身這一事實的直接推論.影象常被不希望的高頻訊號所汙染(噪聲和細紋理).而所希望的影象特徵(如邊緣),既含有低頻分量,又含有高頻分量.高斯函式付立葉變換的單瓣意味著平滑影象不會被不需要的高頻訊號所汙染,同時保留了大部分所需訊號.
(4)高斯濾波器寬度(決定著平滑程度)是由引數σ表徵的,而且σ和平滑程度的關係是非常簡單的.σ越大,高斯濾波器的頻帶就越寬,平滑程度就越好.通過調節平滑程度引數σ,可在影象特徵過分模糊(過平滑)與平滑影象中由於噪聲和細紋理所引起的過多的不希望突變數(欠平滑)之間取得折衷.
(5)由於高斯函式的可分離性,大高斯濾波器可以得以有效地實現.二維高斯函式卷積可以分兩步來進行,首先將影象與一維高斯函式進行卷積,然後將卷積結果與方向垂直的相同一維高斯函式卷積.因此,二維高斯濾波的計算量隨濾波模板寬度成線性增長而不是成平方增長.

相關推薦

函式徑向函式

數學表示所謂徑向基函式 (Radial Basis Function 簡稱 RBF), 就是某種沿徑向對稱的標量函式。 通常定義為空間中任一點x到某一中心xc之間歐氏距離的單調函式 , 可記作 k(||x-xc||), 其作用往往是區域性的 , 即當x遠離xc時函式取值很

消元線性版本

首先給出幾篇部落格:https://blog.sengxian.com/algorithms/linear-basis                          http

函式徑向函式 (Radial Basis Function 簡稱 RBF)詳解

轉載於 :http://blog.csdn.net/huang1024rui/article/details/51510611 1.核函式 1.1核函式的由來 -----------還記得為何要選用核函式麼?--

RBF徑向函式神經網路

自己的總結: 1、輸入層到隱藏層之間不是通過權值和閾值進行連線的,而是通過輸入樣本與隱藏層點之間的距離(與中心點的距離)連線的。 2、得到距離之後,將距離代入徑向基函式,得到一個數值。數值再與後邊的權值相乘再求總和,就得到了相應輸入的輸出。 3、在訓練網路之前,需要確定中心點的個數,和中心點

聚類之混合模型Gaussian Mixture Model

k-means應該是原來級別的聚類方法了,這整理下一個使用後驗概率準確評測其精度的方法—高斯混合模型。 我們談到了用 k-means 進行聚類的方法,這次我們來說一下另一個很流行的演算法:Gaussian Mixture Model (GMM)。事實上,GMM

聚類之混合模型Gaussian Mixture Model【轉】

k-means應該是原來級別的聚類方法了,這整理下一個使用後驗概率準確評測其精度的方法—高斯混合模型。 我們談到了用 k-means 進行聚類的方法,這次我們來說一下另一個很流行的演算法:Gaussian Mixture Model (GMM)。事實上,GMM 和 k-means 很像,不過 GMM 是學習

淺析過程迴歸Gaussian process regression

前言              高斯過程迴歸的和其他迴歸演算法的區別是:一般迴歸演算法給定輸入X,希望得到的是對應的Y值,擬合函式可以有多種多樣,線性擬合、多項式擬合等等,而高斯迴歸是要得到函式f(x)的分佈,那麼是如何實現的呢?         對於資料集 ,令 

最快速的“”模糊演算法附Android原始碼

1:高斯模糊演算法(參考:http://www.ruanyifeng.com/blog/2012/11/gaussian_blur.html) 所謂的模糊演算法就是當前畫素點和周圍畫素點進行加權均值之後的結果替換當前畫素值。因此均值模糊是最簡單的,只要將周圍的畫素點

函式SVM TensorFlow實現

import matplotlib.pyplot as plt import numpy as np import tensorflow as tf from sklearn import datasets from tensorflow.python.framework

徑向函式RBF神經網路

RBF網路能夠逼近任意的非線性函式,可以處理系統內的難以解析的規律性,具有良好的泛化能力,並有很快的學習收斂速度,已成功應用於非線性函式逼近、時間序列分析、資料分類、模式識別、資訊處理、影象處理、系統建模、控制和故障診斷等。 簡單說明一下為什麼RBF網路學習收斂得比較快。當網路的一個或多個可調引數(權值或閾

SVM---通俗易懂圖解函式

引言: 對於SVM的核函式,許多初學者可能在一開始都不明白核函式到底是怎麼做到從二維空間對映到三維空間(這裡我們特徵空間以二維為例),因此本文主要講解其中一種核函式——-高斯核函式作為介紹,另外感謝Andrew Ng在網易雲課堂深入淺出的講解,不但加深了

淺談SVM中的函式

對解線性分類問題,線性分類支援向量機是一種非常有效的方法。但是,有時分類問題 時非線性的,這時可以使用非線性支援向量機。非線性支援向量機,其主要特點是利用核技巧,在此,我主要介紹高斯核函式。 SVM簡

機器學習-RBF函式處理

SVM高斯核函式-RBF優化 重要了解數學的部分: 協方差矩陣,高斯核函式公式。 個人建議具體的求法還是看下面的核心程式碼吧,更好理解,反正就我個人而言,煩躁的公式,還不如一段程式碼來的實際。本來想用java的一個叫jblas的矩陣包,但是想了想,還是自己

神經網路學習筆記 徑向函式神經網路

徑向基函式神經網路 首先介紹一下網路結構: 1.輸入層為向量,維度為m,樣本個數為n,線性函式為傳輸函式。 2.隱藏層與輸入層全連線,層內無連線,隱藏層神經元個數與樣本個數相等,也就是n,傳輸函式為徑向基函式。 3.輸出層為線性輸出。 理論

為什麼函式對映到無窮維度?

Consider the polynomial kernel of degree 2 defined by, where  and .Thereby, the kernel function can be written as, . Now, let us try to c

針對testSetRBF2.txt中資料,使用函式,進行SVM分類,畫圖。

# 2. 針對testSetRBF2.txt中資料,使用高斯核函式,進行SVM分類,畫圖並標記出支援向量。 from numpy import * import matplotlib.pyplot as plt from sklearn import svm # 載入資

神經網路學習筆記一) RBF徑向函式神經網路

RBF徑向基函式神經網路 初學神經網路,以下為綜合其他博主學習材料及本人理解所得。 一、RBF神經網路的基本思想 1. 用RBF作為隱單元的“基”構成隱含層空間,將輸入向量直接(不通過權對映)對映到隱空間。 2.當RBF的中心點確定後,對映關係也就確定。(中心點通常通

淺析利用函式進行半監督分類

Laplacian Regularization In Least Square learning methods, we calculate the Euclidean distance between sample points to find a cla

廳老師 - 高等數學閱讀筆記 - 14 定積分 -定積分的換元法 - 廣義積分和伽馬函式65、66

不定積分有第一,第二換元,定積分只有換元: 周期函式的定積分 定積分的分部積分法 利用歸納法和分部積分法

四.徑向函式網路

BP神經網路是一種全域性逼近網路,學習速度慢,本次介紹一種結構簡單,收斂速度快,能夠逼近任意非線性函式的網路——徑向基函式網路。(Radial Basis Function, RBF)是根據生物神經元有區域性響應的原理而將基函式引入到神經網路中。 為什麼RBF網路學習收斂得比較快?當網路的一個或多個可調引數