1. 程式人生 > >Latent Dirichlet Allocation(LDA)學習筆記

Latent Dirichlet Allocation(LDA)學習筆記

1,Gamma函式

Gamma函式

\[\Gamma (x) = \int_0^\infty  {{e^{ - t}}{t^{x - 1}}dt} \]

是階乘的從整數域到實數域的擴充套件

\[\Gamma (n) = (n - 1)!,n \in \{ 0,1,2,3...\} \]

函式遞推推導如下,根據分佈積分公式

\[uv = \int {(uv} )'dt = \int {uv'dt + \int {u'vdt} } \]

\[u = \frac{{{t^x}}}{x},v = {e^{ - t}}\]

\[\Gamma (x) = \int_0^\infty  {{e^{ - t}}{t^{x - 1}}dt}  = \int_0^\infty  {u'vdt}  = uv|_0^\infty  - \int_0^\infty  {uv'dt}  = \frac{{{t^x}}}{{x{e^t}}}|_0^\infty  - \int_0^\infty  { - {e^{ - t}}\frac{{{t^x}}}{x}dt}  = \frac{1}{x}\int_0^\infty  {{e^{ - t}}{t^x}dt}  = \frac{1}{x}\Gamma (x + 1)\]

Gamma函式以及變形得到的Gamma分佈在數學上應用很廣,其發現過程可以參考《LDA資料八卦》

 

2,Bernoulli(伯努利)分佈

伯努利分佈又稱為兩點分佈或者0-1分佈,是一種離散型概率分佈,指事件可能性存在兩種,1或0,發生概率分別為p與1-p,即

\[P(x) = \left\{ {\begin{array}{*{20}{c}}
{p,x = 1}\\
{1 - p,x = 0}
\end{array}} \right.\]

可知

\[\begin{array}{l}
E[x] = p*1 + (1 - p)*0 = p\\
D[x] = E[{x^2}] - {E^2}[x] = p(1 - p)
\end{array}\]

 

3,二項分佈

二項分佈指重複n次的概率為p的伯努利分佈的試驗,記為X~B(n,p),也是一種離散型概率分佈,此時事件a發生k次(即事件b發生n-k次)的概率為

\[P(k) = \frac{{n!}}{{k!(n - k)!}}{p^k}{(1 - p)^{n - k}}\]

可知

\[E[x] = \sum\limits_0^n {k\frac{{n!}}{{k!(n - k)!}}{p^k}} {(1 - p)^{n - k}} = \sum\limits_1^n {\frac{{n*(n - 1)!}}{{(k - 1)!(n - k)!}}p*{p^{k - 1}}} {(1 - p)^{n - k}} = np\sum\limits_1^n {\frac{{(n - 1)!}}{{(k - 1)!(n - k)!}}{p^{k - 1}}} {(1 - p)^{n - k}} \]

可知,式子後半部分為X~B(n-1,p)的全部可能取值之和

\[E[x] = np\sum\limits_0^t {\frac{{t!}}{{s!(t - s)!}}{p^s}} {(1 - p)^{t - s}}{|_{s = k - 1,t = n - 1}} = np\]

另,由

\[E[{x^2}] = \sum\limits_0^n {{k^2}\frac{{n!}}{{k!(n - k)!}}{p^k}} {(1 - p)^{n - k}} = \sum\limits_0^n {k\frac{{n!}}{{(k - 1)!(n - k)!}}{p^k}} {(1 - p)^{n - k}}\]

想辦法拆項消去k

\[\begin{array}{l}
E[{x^2}] = \sum\limits_0^n {((k - 1) + 1)\frac{{n!}}{{(k - 1)!(n - k)!}}{p^k}} {(1 - p)^{n - k}}\\
= k\frac{{n!}}{{(k - 1)!(n - k)!}}{p^k}{(1 - p)^{n - k}}{|_{k = 1}} + \sum\limits_2^n {((k - 1) + 1)\frac{{n!}}{{(k - 1)!(n - k)!}}{p^k}} {(1 - p)^{n - k}}\\
= np{(1 - p)^{n - 1}} + \sum\limits_2^n {\frac{{n!}}{{(k - 2)!(n - k)!}}{p^k}} {(1 - p)^{n - k}} + \sum\limits_1^n {\frac{{n!}}{{(k - 1)!(n - k)!}}{p^k}} {(1 - p)^{n - k}} - \frac{{n!}}{{(k - 1)!(n - k)!}}{p^k}{(1 - p)^{n - k}}{|_{k = 1}}\\
= np{(1 - p)^{n - 1}} + n(n - 1){p^2}\sum\limits_2^n {\frac{{(n - 2)!}}{{(k - 2)!(n - k)!}}{p^{k - 2}}} {(1 - p)^{n - k}} + np\sum\limits_1^n {\frac{{(n - 1)!}}{{(k - 1)!(n - k)!}}{p^{k - 1}}} {(1 - p)^{n - k}} - np{(1 - p)^{n - 1}}\\
= {n^2}{p^2} - {n^2}{p} + np
\end{array}\]

可得

\[D[x] = E[{x^2}] - {E^2}[x] = {n^2}{p^2} - {n^2}{p} + np - {(np)^2} = np(1 - p)\]

 

4,Beta函式

Beta函式跟Gamma函式關係十分密切

\[B(\alpha ,\beta ) = \int_0^1 {{x^{\alpha  - 1}}{{(1 - x)}^{\beta  - 1}}dx = \frac{{\Gamma (\alpha  + \beta )}}{{\Gamma (\alpha )\Gamma (\beta )}}} \]

這個等式的證明過於複雜,詳見參考文獻

 

5,Beta分佈

將Beta函式作為歸一化分母,將Beta函式積分內部的式子作為分子,可以得到一個自變數介於0-1之間的、積分結果為1的函式

\[f(x;\alpha ,\beta ) = \frac{{{x^{\alpha  - 1}}{{(1 - x)}^{\beta  - 1}}}}{{\int_0^1 {{x^{\alpha  - 1}}{{(1 - x)}^{\beta  - 1}}dx} }} = \frac{{\Gamma (\alpha  + \beta )}}{{\Gamma (\alpha )\Gamma (\beta )}}{x^{\alpha  - 1}}{(1 - x)^{\beta  - 1}}\]

將這個函式定義為Beta分佈的概率密度函式,由於自變數介於0-1之間,可以認為這是一個概率的概率分佈,記為X~Beta(α,β)

\[E[x] = \int_0^1 {x\frac{{\Gamma (\alpha  + \beta )}}{{\Gamma (\alpha )\Gamma (\beta )}}{x^{\alpha  - 1}}{{(1 - x)}^{\beta  - 1}}dx}  = \int_0^1 {\frac{{\Gamma (\alpha  + \beta )}}{{\Gamma (\alpha )\Gamma (\beta )}}{x^\alpha }{{(1 - x)}^{\beta  - 1}}dx}  = \int_0^1 {\frac{\alpha }{{(\alpha  + \beta )}}\frac{{\Gamma (\alpha  + \beta  + 1)}}{{\Gamma (\alpha  + 1)\Gamma (\beta )}}{x^\alpha }{{(1 - x)}^{\beta  - 1}}dx}  = \frac{\alpha }{{(\alpha  + \beta )}}\]

可以看到Beta分佈的概率密度函式與二項分佈的概率密度函式形式非常接近,其實兩者的確是同根同源的,關於兩者的關係,可以參考《LDA數學八卦》中關於撒旦的遊戲的描述

 

6,多項分佈

將二項分佈的事件可能結果擴充套件為k個,則變形為多項分佈,概率分佈函式為

\[P({x_1},{x_2},...,{x_k}) = \frac{{n!}}{{\sum\limits_1^k {({x_i}!)} }}\prod\limits_1^k {{p_i}^k} ,{x_i} \ge 0,\sum\limits_1^k {{x_i} = 1} \]

 

7,Dirichlet(狄利克雷)分佈

將Beta分佈的概率分佈擴充套件到多維,就可以得到狄利克雷分佈,記為X~Dir(α)

\[f({x_i};{\alpha _i}) = \frac{{\prod\limits_1^k {{x_i}^{{\alpha _i} - 1}} }}{{\int_0^1 {\prod\limits_1^k {{x_i}^{{\alpha _i} - 1}} dx} }} = \frac{{\prod\limits_1^k {{x_i}^{{\alpha _i} - 1}} }}{{\Delta (\vec \alpha )}} = \frac{{\Gamma (\sum\limits_1^k {{\alpha _i}} )}}{{\prod\limits_1^k {\Gamma ({\alpha _i})} }}\prod\limits_1^k {{x_i}^{{\alpha _i} - 1}} \]

\[\Delta (\vec \alpha ) = \int_0^1 {\prod\limits_1^k {{x_i}^{{\alpha _i} - 1}} dx} \]

這個式子的證明更加複雜

同Beta分佈,Dirichlet分佈的期望為

\[E[{x_i}] = \frac{{{\alpha _i}}}{{\sum\limits_1^k {{\alpha _i}} }}\]

 

8,先驗分佈、後驗分佈、似然函式與共軛先驗分佈

根據貝葉斯公式,先驗概率、似然函式與後驗概率的關係如下

\[P(\theta |x) = \frac{{P(x|\theta )P(\theta )}}{{P(x)}}\]

如果P(θ)不是一個確定的概率,而是一個概率分佈,則可得先驗分佈、似然函式與後驗分佈的關係

\[f(x;\alpha ,k) = \frac{{P(k|x)f(x;\alpha )}}{{\int {P(k|x)f(x;a)dx} }}\]

假設先驗分佈滿足Beta分佈,X~Beta(α,β),似然函式滿足二項分佈,則後驗分佈為

\[f(x;\alpha ,\beta ,k) = \frac{{{x^{{k_1} - 1}}{{(1 - x)}^{{k_2} - 1}}\frac{{\Gamma (\alpha  + \beta )}}{{\Gamma (\alpha )\Gamma (\beta )}}{x^{\alpha  - 1}}{{(1 - x)}^{\beta  - 1}}}}{{\int {{x^{{k_1} - 1}}{{(1 - x)}^{{k_2} - 1}}\frac{{\Gamma (\alpha  + \beta )}}{{\Gamma (\alpha )\Gamma (\beta )}}{x^{\alpha  - 1}}{{(1 - x)}^{\beta  - 1}}dx} }} =  \frac{{\frac{{\Gamma (\alpha  + \beta  + {k_1} + {k_2})}}{{\Gamma (\alpha  + {k_1})\Gamma (\beta  + {k_2})}}{x^{\alpha  + {k_1} - 1}}{{(1 - x)}^{\beta  + {k_2} - 1}}}}{{\int {\frac{{\Gamma (\alpha  + \beta  + {k_1} + {k_2})}}{{\Gamma (\alpha  + {k_1})\Gamma (\beta  + {k_2})}}{x^{\alpha  + {k_1} - 1}}{{(1 - x)}^{\beta  + {k_2} - 1}}dx} }}\]

可見後驗分佈還是Beta分佈,X~Beta(α+k1,β+k2)

因此,稱Beta分佈為二項分佈的共軛先驗分佈

擴充套件到多維,同樣可證,Dirichlet分佈為多項分佈的共軛先驗分佈

 

8,隨機模擬(Monte Carlo Method)

給定一個概率分佈P(x),利用計算機隨機生成樣本,稱為隨機模擬

均勻分佈是最容易生成的樣本的分佈,一些常見分佈如Gamma分佈、正態分佈,都可以通過均勻分佈變換得到

但有些複雜概率分佈的樣本不能通過均勻分佈變換得到

 

9,馬爾科夫鏈(Markov Chain)與平穩分佈

馬爾科夫鏈的定義為

\[P({s_n}|{s_{n - 1}},{s_{n - 2}},{s_{n - 3}},...) = P({s_n}|{s_{n - 1}})\]

根據定義,馬爾科夫鏈中各個狀態相互轉移只取決於當前狀態,將狀態相互轉移的概率Pi,j構成的矩陣稱為轉移矩陣

根據馬爾科夫鏈收斂定理,如果一個馬爾科夫鏈的轉移概率矩陣存在,並且任意兩個狀態都是聯通的(即有限步內可達),那麼這個馬爾科夫鏈存在平穩分佈,即經過若干次轉移後,處於每個狀態的概率穩定,這個穩定的概率分佈即平穩分佈

馬爾科夫鏈處於平穩狀態下的充分必要條件是滿足細緻平穩條件

\[{s_i}{P_{i,j}} = {s_j}{P_{j,i}}\]

 

10,MCMC(Monte Carlo Markov Chain)方法

如果能構造一個馬爾科夫鏈,此鏈的平穩分佈為待取樣的概率分佈p(x),則可以通過在已經收斂到平穩狀態的馬爾科夫鏈上取樣,作為p(x)的取樣樣本

構造一個轉移矩陣為P的馬爾科夫鏈,令其平穩分佈為s(x),則一般情況下

\[{s_i}{P_{i,j}} \ne {s_j}{P_{j,i}}\]

此時引入

\[{\alpha _{i,j}} = {s_j}{P_{j,i}},{\alpha _{j,i}} = {s_i}{P_{i,j}}\]

則可得

\[{s_i}{P_{i,j}}{\alpha _{i,j}} = {s_j}{P_{j,i}}{\alpha _{j,i}}\]

稱α為接收矩陣,意義為在原轉移概率基礎上,有一定機率接收轉移,有一定機率拒絕轉移,得到平穩分佈

 

11,M-H(Metropolis-Hastings)取樣方法

Metropolis-Hastings方法是改造的MCMC方法,由於在一般MCMC方法中,轉移概率還會有一定接收率,有可能很小,則取樣時會大概率拒絕轉移,為了提高轉移概率,Metropolis-Hastings方法將接收概率在滿足細緻平穩條件的前提下儘量增大

\[{\alpha _{i,j}} = \min \{ \frac{{{s_j}{P_{j,i}}}}{{{s_i}{P_{i,j}}}},1\} \]

 

12,Gibbs取樣方法

Gibbs取樣方法是一種特殊的Metropolis-Hastings方法,將接受率增大為1,

考慮二維的情況,在概率分佈上取兩點A(x1,y1),B(x1,y2),並將概率分佈p(y1|x1),p(y2|x1)作為轉移概率,可得

\[\begin{array}{l}
p({x_1},{y_1})p({y_2}|{x_1}) = p({y_1}|{x_1})p({x_1})p({y_2}|{x_1})\\
p({x_1},{y_2})p({y_1}|{x_1}) = p({y_2}|{x_1})p({x_1})p({y_1}|{x_1})
\end{array}\]

可見,則平穩分佈條件是成立的

\[p({x_1},{y_2})p({y_1}|{x_1}) = p({x_1},{y_2})p({y_1}|{x_1})\]

Gibbs取樣即基於此等式,為此馬爾科夫鏈構造轉移矩陣P

\[{P_{AB}} = \left\{ {\begin{array}{*{20}{c}}
{p({y_B}|{x_A}),{x_A} = {x_B}}\\
{p({x_B}|{y_A}),{y_A} = {y_B}}\\
{0,{x_A} \ne {x_B},{y_A} \ne {y_B}}
\end{array}} \right.\]

 

13,文字建模

有若干文件,假設只考慮文件中各個單詞的個數,不考慮單詞出現次序,即Bag-Of-Words模型

文字建模問題即將文件中單詞的生成看做上帝拋擲骰子的結果,模型預測的引數有兩個:1)有哪些樣式的骰子,2)怎樣拋擲這些骰子

 

14,簡單Unigram模型

簡單Unigram Model認為:1)只有一枚骰子,每面代表一個單詞,各個單詞概率不盡相同,2)不斷拋擲這枚骰子,生成所有文件的所有單詞

可見所有文件都是統一的,即所有單詞都在一個袋子裡

令V為單詞集合(字典),M為單詞總數(字典大小),wm為所有文件中單詞vm的出現次數

令pm為模型中單詞vm的出現概率,文件生成的過程滿足多項分佈Multi(w|p)

文件生成的概率為

\[P(W) = \prod\limits_m^M {p_m^{{w_m}}} \]

根據最大似然估計

\[{{\hat p}_m} = \frac{{{w_m}}}{{\sum\limits_m^M {{w_m}} }}\]

 

15,貝葉斯Unigram模型

貝葉斯認為骰子也是有概率分佈的,所以等同於:1)有若干枚骰子,每個骰子各面概率不盡相同,每面代表一個單詞,各個單詞概率不盡相同,2)隨機選出一枚骰子,不斷拋擲這枚骰子,生成所有文件的所有單詞

所以貝葉斯Unigram模型也是將所有單詞都放在一個袋子裡

令V為單詞集合(字典),M為單詞總數(字典大小),wm為所有文件中單詞vm的出現次數

令pm為模型中單詞vm的出現概率,由於文件生成的過程滿足多項分佈Multi(w|p)

\[P(\vec w|\vec p) = \prod\limits_m^M {p_m^{{w_m}}} \]

所以採用多項分佈的共軛先驗分佈Dirichlet分佈作為先驗分佈Dir(p|α),此處α為先驗分佈的超引數

\[Dir(\vec p|\vec \alpha ) = \frac{{\prod\limits_m^M {p_m^{{\alpha _m} - 1}} }}{{\int {\prod\limits_m^M {p_m^{{\alpha _m} - 1}} d\vec p} }}\]

根據多項分佈於Dirichlet分佈的關係,後驗分佈也應是Dirichlet分佈,後驗分佈滿足

\[Dir(\vec p|\vec \alpha  , \vec w) = \frac{{\prod\limits_m^M {p_m^{{\alpha _m} + {w_m} - 1}} }}{{\int {\prod\limits_m^M {p_m^{{\alpha _m} + {w_m} - 1}} d\vec p} }}\]

此時文件生成概率為

\[P(W) = \int {P(\vec w|\vec p)P(} \vec p|\vec \alpha )d\vec p = \int {\prod\limits_m^M {p_m^{{w_m}}} \frac{{\prod\limits_m^M {p_m^{{\alpha _m} - 1}} }}{{\int {\prod\limits_m^M {p_m^{{\alpha _m} - 1}} d\vec p} }}} d\vec p = \frac{{\int {\prod\limits_m^M {p_m^{{\alpha _m} + {w_m} - 1}} d\vec p} }}{{\int {\prod\limits_m^M {p_m^{{\alpha _m} - 1}} d\vec p} }}\]

將後驗分佈的平均值作為引數估計值

\[{{\hat p}_m} = \frac{{{\alpha _m} + {w_m}}}{{\sum\limits_m^M {({\alpha _m} + {w_m})} }}\]

 

16,PLSA(Probabilistic Latent Semantic Analyse)

Unigram模型認為所有文件都是獨立同分布的,PLSA在Unigram模型基礎上,認為每個文件都由若干個不盡相同的主題構成,每個單詞都由主題以一定概率生成,即:1)每篇文件有一枚特定的doc-topic骰子,2)有若干枚topic-word骰子,3)生成每個詞前,先拋擲doc-topic骰子,再根據doc-topic骰子結果選擇topic-word骰子,拋擲topic-word骰子,生成單詞

令V為單詞集合(字典),M為單詞總數(字典大小),N為文件個數,K為主題個數

令dn代表文件n,zk代表主題k,vm代表單詞m,則p(zk|dn)為文件dn生成主題tk的概率,p(vm|zk)為主題tk生成單詞vm的概率,並且模型假設p(zk|dn)、p(vm|zk)相互獨立

令wnm為文件dn中單詞vm的個數,則文件生成概率為

\[\begin{array}{l}
P(W) = \prod\limits_n^N {\prod\limits_m^M {p{{({v_m},{d_n})}^{{w_{nm}}}}} } \\
p({v_m},{d_n}) = p({d_n})\prod\limits_k^K {p({v_m}|{z_k})p({z_k}|{d_n})}
\end{array}\]

可得log似然函式如下

\[L(W) = \sum\limits_n^N {\sum\limits_m^M {{w_{nm}}\log (p({v_m},{d_n}))} }  = \sum\limits_n^N {\sum\limits_m^M {{w_{nm}}(\log (p({d_n})) + \sum\limits_k^K {\log (p({v_m}|{z_k})p({z_k}|{d_n})))} } } \]

去除常數項

\[L'(W) = \sum\limits_n^N {\sum\limits_m^M {{w_{nm}}\sum\limits_k^K {\log (p({v_m}|{z_k})p({z_k}|{d_n})))} } } \]

使用EM演算法估計似然函式最大值

首先假設p(zk|dn)與p(vm|zk)都已知,則可求後驗概率

\[p({z_k}|{v_m},{d_n}) = \frac{{p({z_k},{v_m},{d_n})}}{{p({v_m},{d_n})}} = \frac{{p({v_m}|{z_k})p({z_k}|{d_n})p({d_n})}}{{p({v_m}|{d_n})p({d_n})}}\]

可知在後驗概率中m、n的相關項都是一定的,則後驗概率可化為下式求解

\[p({z_k}|{v_m},{d_n}) = \frac{{p({v_m}|{z_k})p({z_k}|{d_n})}}{{\prod\limits_k^K {p({v_m}|{z_k})p({z_k}|{d_n})} }}\]

然後根據當前求得的後驗概率求令似然函式期望最大化的p(zk|dn)與p(vm|zk)

\[E[L'(W)] = \sum\limits_n^N {\sum\limits_m^M {{w_{nm}}\sum\limits_k^K {p({z_k}|{v_m},{d_n})\log (p({v_m}|{z_k})p({z_k}|{d_n})))} } } ,\sum\limits_m^M {p({v_m}|{z_k}) = 1,\sum\limits_k^K {p({z_k}|{d_n}) = 1} } \]

期望函式有約束,則利用Lagrange Multiplier拉格朗日乘子法構造Lagrange函式

\[f(x) = E[L'(W)] + \alpha (\sum\limits_m^M {p({v_m}|{z_k})}  - 1) + \beta (\sum\limits_k^K {p({z_k}|{d_n})}  - 1)\]

令函式偏導數為0

\[\begin{array}{l}
\frac{{\partial f(x)}}{{\partial p({v_m}|{z_k})}} = \sum\limits_n^N {\frac{{{w_{nm}}p({z_k}|{v_m},{d_n})}}{{p({v_m}|{z_k})}}} + \alpha = 0\\
\frac{{\partial f(x)}}{{\partial p({z_k}|{d_n})}} = \sum\limits_m^M {\frac{{{w_{nm}}p({z_k}|{v_m},{d_n})}}{{p({z_k}|{d_n})}}} + \beta = 0
\end{array}\]

根據p(vm|zk)和為1,代入上式消去α

\[\begin{array}{l}
\sum\limits_m^M {p({v_m}|{z_k})} = \sum\limits_m^M {\frac{{\sum\limits_n^N {{w_{nm}}p({z_k}|{v_m},{d_n})} }}{{ - \alpha }}} = 1\\
\alpha = - \sum\limits_n^N {\sum\limits_m^M {{w_{nm}}p({z_k}|{v_m},{d_n})} }
\end{array}\]

可得p(vm|zk)的迭代公式

\[p({v_m}|{z_k}) = \frac{{\sum\limits_n^N {{w_{nm}}p({z_k}|{v_m},{d_n})} }}{{\sum\limits_n^N {\sum\limits_m^M {{w_{nm}}p({z_k}|{v_m},{d_n})} } }}\]

同樣可得p(zk|dn)的迭代公式

\[\begin{array}{l}
\sum\limits_k^K {p({z_k}|{d_n})} = \sum\limits_k^K {\frac{{\sum\limits_m^M {{w_{nm}}p({z_k}|{v_m},{d_n})} }}{{ - \beta }}} = 1\\
\beta = - \sum\limits_m^M {\sum\limits_k^K {{w_{nm}}p({z_k}|{v_m},{d_n})} } \\
p({z_k}|{d_n}) = \frac{{\sum\limits_m^M {{w_{nm}}p({z_k}|{v_m},{d_n})} }}{{\sum\limits_m^M {\sum\limits_k^K {{w_{nm}}p({z_k}|{v_m},{d_n})} } }}
\end{array}\]

依樣迭代,直至收斂

 

17,LDA(Latent Dirichlet Allocation)

LDA將PLSA做了貝葉斯改造,即認為doc-topic的概率與topic-word的概率都是有分佈的,對應於骰子模型即:1)先從topic-word分佈中選擇K個topic-word骰子,2)對每一篇文件,從doc-topic分佈中選擇1個doc-topic骰子,3)對每一個單詞,先拋擲doc-topic骰子得到topic編號k,再拋擲第k個topic-word骰子得到word

假設doc-topic先驗分佈為Dirichlet分佈Dir(θ|α),拋擲doc-topic骰子符合多項分佈Multi(z|θ),則可知doc-topic後驗分佈也是滿足Dirichlet分佈,設z為doc-topic分佈,θk為topic的概率,nk為所有文件中topic出現的次數

\[f(z,\alpha ) = \int {p(z|\theta } )f(\theta ,\alpha )d\vec \theta  = \int {\prod\limits_k^K {\theta _k^{{n_k}}} \frac{{\prod\limits_k^K {\theta _k^{{\alpha _i} - 1}} }}{{\int {\prod\limits_k^K {\theta _k^{{\alpha _i} - 1}d\vec \theta } } }}d\vec \theta }  = \frac{{\Delta (\vec n + \vec \alpha )}}{{\Delta (\vec \alpha )}}\]

 

 

 

參考文獻:

《LDA資料八卦》

https://www.jianshu.com/p/d8485c623669

https://www.jianshu.com/p/8fb2fcb52a3a

https://www.jianshu.com/p/e7fbd3a2b786

https://www.jianshu.com/p/1511c94b2ac3

http://www.cnblogs.com/pinard/p/6831308.html

http://www.cnblogs.com/pinard/p/6867828.html

http://www.cnblogs.com/pinard/p/6873703.html

http://www.cnblogs.com/bentuwuying/p/6219970.html

https://blog.csdn.net/xhf0374/article/details/53946146