1. 程式人生 > >熵的理解(玻爾茲曼分佈)

熵的理解(玻爾茲曼分佈)

  • log2n(以 2 為底的對數):用二進位制數來表達不同的狀態組合需要多少個二進位制位;

0. 玻爾茲曼分佈

網路中任意兩個狀態出現的概率與對應能量之間的關係:

P(α)P(β)=exp(E0/T)exp(E1/T)

從式中可以得出兩點結論,

  • (1)BM 網路處於某一狀態(P(x=α))下的概率主要取決於此狀態下的能量 Eα,能量越低,出現的概率越大;
  • (2)BM 網路處於某一狀態的概率還取決於溫度引數 T,溫度越高,不同狀態出現的概率越接近,網路能量也較易跳出區域性最小而搜尋全域性最小,
    • 溫度低時,則情況相反;

1. 物理的解釋

一個密封系統中,裝有許多氣體粒子(分子),共有 N

個粒子(由於是密封,不會增加也不會減少),假設系統內部的溫度為 T,系統內的分子有兩種狀態,ϵ0,ϵ1(前者表示低能量的狀態,後者表示高能量的狀態),處在 ϵ0 能級上的粒子有 n0 個,處在 ϵ1 能及上的粒子有 n1 個,顯然一個永遠滿足的等式即為:

n0+n1=N

N 個粒子,存在 n0ϵ0n1ϵ1這種分佈的組合數(狀態數)記為 W,則 W=(n0N)=(n1N)=N!n0!n1!

此時我們來計算系統的熵(與系統可能的狀態數有關):

S=klog2W=klog2(N!n0!n1!)=k(log2N!log2n0!log2n1!)

k 稱為玻爾茲曼機常數,W 為狀態數。一些時刻之後向系統內施加一部分能量 ϵ

,有一粒子從低能級躍遷至高能級,n0=1,n1+=1,則新狀態下的熵為:

S=klog2W=klog2(N!(n01)!(n1+1)!)=k(log2N!log2(n01)!log2(n1+1)!)

所以有系統能量的變化為:

ΔS=SS=klog2n0n1+1klog2n0n1

近似的原因在於,分子的數量是相當大的。由熱力學的相關定理可知,

ΔS=ϵT=klnn0n1

進一步可得出:

n0n1=eϵ/k

相關推薦

理解分佈

log2n(以 2 為底的對數):用二進位制數來表達不同的狀態組合需要多少個二進位制位; 0. 玻爾茲曼分佈 網路中任意兩個狀態出現的概率與對應能量之間的關係: P(α)P(β)=exp(−E0/T)exp(−E1/T) 從式中可以得出兩點

六.隨機神經網路Boltzmann

Hopfield網路具有最優計算功能,然而網路只能嚴格按照能量函式遞減方式演化,很難避免偽狀態的出現,且權值容易陷入區域性極小值,無法收斂於全域性最優解。 如果反饋神經網路的迭代過程不是那麼死板,可以在一定程度上暫時接受能量函式變大的結果,就有可能跳出區域性極小值。隨機神經網路的核心思想就是在網路中加入概率

數學狂想曲——分佈

玻爾茲曼分佈 Boltzmann distribution(又叫Gibbs distribution)本來是脫胎於熱力學和統計力學的分佈,但在量子力學和機器學習領域也得到了廣泛的應用。 注:Ludwig Eduard Boltzmann,1844~

深度學習 --- 分佈詳解

上一節我們從Hopfield神經網路存在偽吸引子的問題出發,為了解決偽吸引子帶來的問題,詳細介紹了模擬退火演算法,本節也是基礎性的講解,為了解決偽吸引子還需要引入另外一個重要概念即:玻爾茲曼分佈。本篇將詳解玻爾茲曼分佈,但是還是先說說為什麼要引入玻爾茲曼分佈,因為為了解決Hopfield神經網路

深度學習 --- 隨機神經網路詳解機學習演算法、執行演算法

BM網路的學習演算法 (1)  學習過程       通過有導師學習,BM網路可以對訓練集中各模式的概率分佈進行模擬,從而實現聯想記憶.學習的目的是通過調整網路權值使訓練集中的模式在網路狀態中以相同的概率再現.學習過程可分為兩個階段;第一階段

RBM受限和深層信念網絡Deep Brief Network

例如 sha 目標 監督學習 怎麽 繼續 定義 再次 rbm 目錄: 一、RBM 二、Deep Brief Network 三、Deep Autoencoder 一、RBM 1、定義【無監督學習】 RBM記住三個要訣:1)

RBM受限和深層信念網路Deep Brief Network

 目錄: 一、RBM 二、Deep Brief Network 三、Deep Autoencoder   一、RBM 1、定義【無監督學習】 RBM記住三個要訣:1)兩層結構圖,可視層和隱藏層;【沒輸出層】2)層內無連線,層間全連線;3)二值狀態值,

簡單理解●限制機●RBM

所謂概率圖模型,就是指運用了概率和圖這兩種工具建立的模型(逐漸忘記標題),咳咳,今天講一下限制玻爾茲曼機,或者叫做受限玻爾茲曼機,這個名字起的真是,。。,好的,咳咳 所謂玻爾茲曼機,就是就是玻爾茲曼家的

Restricted Boltzmann Machine限制

RBM原理: 玻爾茲曼機最初是作為一種廣義的“聯結主義”引入,用來學習向量上的任意概率分佈。聯結主義(connectionism)的中心思想是,當網路將大量簡單計算單元連線在一起時可以實現智慧的行為。分散式表示(distributed representation)認為系統每個

RBM受限原理及程式碼

EBMs 的隱藏神經元 在很多情況下, 我們看不到部分的隱藏單元  , 或者我們要引入一些不可見的參量來增強模型的能力.所以我們考慮一些可見的神經元(依然表示為 ) 和 隱藏的部分 . 我們可以這樣寫我們的表示式:                                            

受限RBM原理總結

guid filter font list cuc spa 得到 aci dcb https://blog.csdn.net/l7H9JA4/article/details/81463954 授權轉發自:劉建平《受限玻爾茲曼機(RBM)原理總結》 地址:http://w

深度學習 --- 受限科夫過程、馬科夫鏈

        上一節我們詳細的探討了玻爾茲曼機,玻爾茲曼機的發明是為了解決Hopfield神經網路的偽吸引子的問題,因此把退火演算法、玻爾茲曼分佈和Hopfield神經網路結合在一起形成了玻爾茲曼機(隨機神經網路)。通過前面幾節我們知道玻爾茲曼機可以很好

深度學習方法:受限機RBM模型求解,Gibbs sampling

歡迎轉載,轉載請註明:本文出自Bin的專欄blog.csdn.net/xbinworld。  技術交流QQ群:433250724,歡迎對演算法、技術、應用感興趣的同學加入。 接下來重點講一下RBM模型求解方法,其實用的依然是梯度優化方法,但是求解需要用

《白話深度學習與Tensorflow》學習筆記7RBM限制

不受限的:在實際工程中用處不大,所以目前只需要研究受限玻爾茲曼機。 一層是視覺化層,一般來說是輸入層,另一層是隱含層,也就是我們一般指的特徵提取層。 RBM是可以多層疊加在一起的。 上面的h1到hn是n個實數,下面的v1到vm是m個實數,都是0到1

深度置信網路DBN和受限RBM

原部落格於http://blog.163.com/silence_ellen/blog/static/176104222201431710264087/ 本篇非常簡要地介紹了深度信念網路的基本概念。文章先簡要介紹了深度信念網路(包括其應用例項)。接著分別講述了:(1)

受限制機(RBM)用於電影推薦小例

lips 開發 rec tran 必須 int png a* __init__ 原文章:http://blog.csdn.net/u010223750/article/details/61196549 1 #coding=‘utf-8‘ 2 """ 3 de

受限機基礎教程

unit 單個 單元 閾值 導致 相關數 負責 權重 自動編碼器 定義與結構 受限玻爾茲曼機(RBM)由Geoff Hinton發明,是一種用於降維、分類、回歸、協同過濾、特征學習和主題建模的算法。(如需通過實例了解RBM等神經網絡的應用方法,請參閱應用案例)。

[深度信念網絡][機] DBN (Deep Belief Network) RBM (Restricted Boltzmann Machine) 原理講解

mac 隨機 ted 圖片 程序 inf nbsp 深度 理論 主要講了玻爾茲曼機的推導以及二值RBM,這一部分程序很簡單但理論感覺不是很好講,涉及到挺多隨機過程和概率的知識。Bengio那篇文章其實講的很詳細,不過他是從自由能的角度講的,物理意義挺清楚但推導過程不如網上有

七.RBM受限

1、受限玻爾茲曼機    玻爾茲曼機是一大類的神經網路模型,但是在實際應用中使用最多的則是受限玻爾茲曼機(RBM)。   受限玻爾茲曼機(RBM)是一個隨機神經網路(即當網路的神經元節點被啟用時會有隨機行為,隨機取值)。它包含一層可視層和一層隱藏層。在同一層的神經元之間是相互獨立的,而

達觀資料於敬:深度學習來一波,受限機原理及在推薦系統中的應用

深度學習相關技術近年來在工程界可謂是風生水起,在自然語言處理、影象和視訊識別等領域得到極其廣泛的應用,並且在效果上更是碾壓傳統的機器學習。一方面相對傳統的機器學習,深度學習使用更多的資料可以進行更好的擴充套件,並且具有非常優異的自動提取抽象特徵的能力。 另外得益於GPU、SSD儲存、大