簡明條件隨機場CRF介紹(附帶純Keras實現)
筆者去年曾寫過博文《果殼中的條件隨機場(CRF In A Nutshell)》,以一種比較粗糙的方式介紹了一下條件隨機場(CRF)模型。然而那篇文章顯然有很多不足的地方,比如介紹不夠清晰,也不夠完整,還沒有實現,在這裡我們重提這個模型,將相關內容補充完成。
本文是對CRF基本原理的一個簡明的介紹。當然,“簡明”是相對而言中,要想真的弄清楚CRF,免不了要提及一些公式,如果只關心呼叫的讀者,可以直接移到文末。
圖示 #
按照之前的思路,我們依舊來對比一下普通的逐幀softmax和CRF的異同。
逐幀softmax #
CRF主要用於序列標註問題,可以簡單理解為是給序列中的每一幀都進行分類
逐幀softmax並沒有直接考慮輸出的上下文關聯
條件隨機場 #
然而,當我們設計標籤時,比如用s、b、m、e的4個標籤來做字標註法的分詞,目標輸出序列本身會帶有一些上下文關聯,比如s後面就不能接m和e,等等。逐標籤softmax並沒有考慮這種輸出層面的上下文關聯,所以它意味著把這些關聯放到了編碼層面,希望模型能自己學到這些內容,但有時候會“強模型所難”。
而CRF則更直接一點,它將輸出層面的關聯分離了出來,這使得模型在學習上更為“從容”:
CRF在輸出端顯式地考慮了上下文關聯
數學 #
當然,如果僅僅是引入輸出的關聯,還不僅僅是CRF的全部,CRF的真正精巧的地方,是它以路徑為單位,考慮的是路徑的概率。
模型概要 #
假如一個輸入有n
幀,每一幀的標籤有k中可能性,那麼理論上就有kn
中不同的輸入。我們可以將它用如下的網路圖進行簡單的視覺化。在下圖中,每個點代表一個標籤的可能性,點之間的連線表示標籤之間的關聯,而每一種標註結果,都對應著圖上的一條完整的路徑。
4tag分詞模型中輸出網路圖
而在序列標註任務中,我們的正確答案是一般是唯一的。比如“今天天氣不錯”,如果對應的分詞結果是“今天/天氣/不/錯”,那麼目標輸出序列就是bebess,除此之外別的路徑都不符合要求。換言之,在序列標註任務中,我們的研究的基本單位應該是路徑,我們要做的事情,是從k
條路徑選出正確的一條,那就意味著,如果將它視為一個分類問題,那麼將是kn
類中選一類的分類問題!
這就是逐幀softmax和CRF的根本不同了:前者將序列標註看成是n
個k分類問題,後者將序列標註看成是1個kn
分類問題。
具體來講,在CRF的序列標註問題中,我們要計算的是條件概率
P(y1,…,yn|x1,…,xn)=P(y1,…,yn|x),x=(x1,…,xn)(1)
為了得到這個概率的估計,CRF做了兩個假設:
假設一 該分佈是指數族分佈。
這個假設意味著存在函式f(y1,…,yn;x)
,使得
P(y1,…,yn|x)=1Z(x)exp(f(y1,…,yn;x))(2)
其中Z(x)是歸一化因子,因為這個是條件分佈,所以歸一化因子跟x有關。這個f
函式可以視為一個打分函式,打分函式取指數並歸一化後就得到概率分佈。
假設二 輸出之間的關聯僅發生在相鄰位置,並且關聯是指數加性的。
這個假設意味著f(y1,…,yn;x)
可以更進一步簡化為
f(y1,…,yn;x)=h(y1;x)++g(y1,y2;x)+h(y2;x)+…g(yn−1,yn;x)+h(yn;x)(3)
這也就是說,現在我們只需要對每一個標籤和每一個相鄰標籤對分別打分,然後將所有打分結果求和得到總分。
線性鏈CRF #
儘管已經做了大量簡化,但一般來說,(3)
式所表示的概率模型還是過於複雜,難以求解。於是考慮到當前深度學習模型中,RNN或者層疊CNN等模型已經能夠比較充分捕捉各個y與輸出x的聯絡,因此,我們不妨考慮函式g跟x無關,那麼
f(y1,…,yn;x)=h(y1;x)++g(y1,y2)+h(y2;x)+…g(yn−1,yn)+h(yn;x)(4)
這時候g實際上就是一個有限的、待訓練的引數矩陣而已,而單標籤的打分函式h(yi;x)我們可以通過RNN或者CNN來建模。因此,該模型是可以建立的,其中概率分佈變為
P(y1,…,yn|x)=1Z(x)exp(h(y1;x)+∑k=1n−1[g(yk,yk+1)+h(yk+1;x)])(5)
這就是線性鏈CRF的概念。
歸一化因子 #
為了訓練CRF模型,我們用最大似然方法,也就是用
−logP(y1,…,yn|x)(6)
作為損失函式,可以算出它等於
−(h(y1;x)+∑k=1n−1[g(yk,yk+1)+h(yk+1;x)])+logZ(x)(7)
其中第一項是原來概率式的分子的對數,它目標的序列的打分,雖然它看上去挺迂迴的,但是並不難計算。真正的難度在於分母的對數logZ(x)
這一項。
歸一化因子,在物理上也叫配分函式,在這裡它需要我們對所有可能的路徑的打分進行指數求和,而我們前面已經說到,這樣的路徑數是指數量級的(kn
),因此直接來算幾乎是不可能的。
事實上,歸一化因子難算,幾乎是所有概率圖模型的公共難題。幸運的是,在CRF模型中,由於我們只考慮了臨近標籤的聯絡(馬爾可夫假設),因此我們可以遞迴地算出歸一化因子,這使得原來是指數級的計算量降低為線性級別。具體來說,我們將計算到時刻t
的歸一化因子記為Zt,並將它分為k個部分
Zt=Z(1)t+Z(2)t+⋯+Z(k)t(8)
其中Z(1)t,…,Z(k)t分別是截止到當前時刻t中、以標籤1,…,k為終點的所有路徑的得分指數和。那麼,我們可以遞迴地計算
Z(1)t+1=Z(2)t+1=Z(k)t+1=(Z(1)tG11+Z(2)tG21+⋯+Z(k)tGk1)Ht+1(1|x)(Z(1)tG12+Z(2)tG22+⋯+Z(k)tGk2)Ht+1(2|x)⋮(Z(1)tG1k+Z(2)tG2k+⋯+Z(k)tGkk)Ht+1(k|x)(9)
它可以簡單寫為矩陣形式
Zt+1=ZtG⊗H(yt+1|x)(10)
其中Zt=[Z(1)t,…,Z(k)t];而G是對g(yi,yj)各個元素取指數後的矩陣,即G=eg(yi,yj);而H(yt+1|x)是編碼模型h(yt+1|x)(RNN、CNN等)對位置t+1的各個標籤的打分的指數,即H(yt+1|x)=eh(yt+1|x),也是一個向量。式(10)中,ZtG這一步是矩陣乘法,得到一個向量,而⊗
是兩個向量的逐位對應相乘。
歸一化因子的遞迴計算圖示。從t到t+1時刻的計算,包括轉移概率和j+1節點本身的概率
如果不熟悉的讀者,可能一下子比較難接受(10)
式。讀者可以把n=1,n=2,n=3時的歸一化因子寫出來,試著找它們的遞迴關係,慢慢地就可以理解(10)
式了。
動態規劃 #
寫出損失函式−logP(y1,…,yn|x)
後,就可以完成模型的訓練了,因為目前的深度學習框架都已經帶有自動求導的功能,只要我們能寫出可導的loss,就可以幫我們完成優化過程了。
那麼剩下的最後一步,就是模型訓練完成後,如何根據輸入找出最優路徑來。跟前面一樣,這也是一個從kn
條路徑中選最優的問題,而同樣地,因為馬爾可夫假設的存在,它可以轉化為一個動態規劃問題,用viterbi演算法解決,計算量正比於n
。
動態規劃在本部落格已經出現了多次了,它的遞迴思想就是:一條最優路徑切成兩段,那麼每一段都是一條(區域性)最優路徑。在本部落格右端的搜尋框鍵入“動態規劃”,就可以得到很多相關介紹了,所以不再重複了~
實現 #
經過除錯,基於Keras框架下,筆者得到了一個線性鏈CRF的簡明實現,這也許是最簡短的CRF實現了。這裡分享最終的實現並介紹實現要點。
實現要點 #
前面我們已經說明了,實現CRF的困難之處是−logP(y1,…,yn|x)
的計算,而本質困難是歸一化因子部分Z((x)的計算,得益於馬爾科夫假設,我們得到了遞迴的(9)式或(10)式,它們應該已經是一般情況下計算Z(x)
的計算了。
那麼怎麼在深度學習框架中實現這種遞迴計算呢?要注意,從計算圖的視角看,這是通過遞迴的方法定義一個圖,而且這個圖的長度還不固定。這對於pytorch這樣的動態圖框架應該是不為難的,但是對於tensorflow或者基於tensorflow的Keras就很難操作了(它們是靜態圖框架)。
不過,並非沒有可能,我們可以用封裝好的rnn函式來計算!我們知道,rnn本質上就是在遞迴計算
ht+1=f(xt+1,ht)(11)
新版本的tensorflow和Keras都已經允許我們自定義rnn細胞,這就意味著函式f可以自行定義,而後端自動幫我們完成遞迴計算。於是我們只需要設計一個rnn,使得我們要計算的Z
對應於rnn的隱藏向量!
這就是CRF實現中最精緻的部分了。
至於剩下的,是一些細節性的,包括:
1、為了防止溢位,我們通常要取對數,但由於歸一化因子是指數求和,所以實際上是log(∑ki=1eai)
這樣的格式,它的計算技巧是:
log(∑i=1keai)=A+log(∑i=1keai−A),A=max{a1,…,ak}
tensorflow和Keras中都已經封裝好了對應的logsumexp函數了,直接呼叫即可;2、對於分子(也就是目標序列的得分)的計算技巧,在程式碼中已經做了註釋,主要是通過用“目標序列”點乘“預測序列”來實現取出目標得分;
3、關於變長輸入的padding部分如何進行mask?我覺得在這方面Keras做得並不是很好。為了簡單實現這種mask,我的做法是引入多一個標籤,比如原來是s、b、m、e四個標籤做分詞,然後引入第五個標籤,比如x,將padding部分的標籤都設為x,然後可以直接在CRF損失計算時忽略第五個標籤的存在,具體實現請看程式碼。
程式碼速覽 #
純Keras實現的CRF層,歡迎使用~
# -*- coding:utf-8 -*-
from keras.layers import Layer
import keras.backend as K
class CRF(Layer):
"""純Keras實現CRF層
CRF層本質上是一個帶訓練引數的loss計算層,因此CRF層只用來訓練模型,
而預測則需要另外建立模型。
"""
def __init__(self, ignore_last_label=False, **kwargs):
"""ignore_last_label:定義要不要忽略最後一個標籤,起到mask的效果
"""
self.ignore_last_label = 1 if ignore_last_label else 0
super(CRF, self).__init__(**kwargs)
def build(self, input_shape):
self.num_labels = input_shape[-1] - self.ignore_last_label
self.trans = self.add_weight(name='crf_trans',
shape=(self.num_labels, self.num_labels),
initializer='glorot_uniform',
trainable=True)
def log_norm_step(self, inputs, states):
"""遞迴計算歸一化因子
要點:1、遞迴計算;2、用logsumexp避免溢位。
技巧:通過expand_dims來對齊張量。
"""
states = K.expand_dims(states[0], 2) # (batch_size, output_dim, 1)
trans = K.expand_dims(self.trans, 0) # (1, output_dim, output_dim)
output = K.logsumexp(states+trans, 1) # (batch_size, output_dim)
return output+inputs, [output+inputs]
def path_score(self, inputs, labels):
"""計算目標路徑的相對概率(還沒有歸一化)
要點:逐標籤得分,加上轉移概率得分。
技巧:用“預測”點乘“目標”的方法抽取出目標路徑的得分。
"""
point_score = K.sum(K.sum(inputs*labels, 2), 1, keepdims=True) # 逐標籤得分
labels1 = K.expand_dims(labels[:, :-1], 3)
labels2 = K.expand_dims(labels[:, 1:], 2)
labels = labels1 * labels2 # 兩個錯位labels,負責從轉移矩陣中抽取目標轉移得分
trans = K.expand_dims(K.expand_dims(self.trans, 0), 0)
trans_score = K.sum(K.sum(trans*labels, [2,3]), 1, keepdims=True)
return point_score+trans_score # 兩部分得分之和
def call(self, inputs): # CRF本身不改變輸出,它只是一個loss
return inputs
def loss(self, y_true, y_pred): # 目標y_pred需要是one hot形式
mask = 1-y_true[:,1:,-1] if self.ignore_last_label else None
y_true,y_pred = y_true[:,:,:self.num_labels],y_pred[:,:,:self.num_labels]
init_states = [y_pred[:,0]] # 初始狀態
log_norm,_,_ = K.rnn(self.log_norm_step, y_pred[:,1:], init_states, mask=mask) # 計算Z向量(對數)
log_norm = K.logsumexp(log_norm, 1, keepdims=True) # 計算Z(對數)
path_score = self.path_score(y_pred, y_true) # 計算分子(對數)
return log_norm - path_score # 即log(分子/分母)
def accuracy(self, y_true, y_pred): # 訓練過程中顯示逐幀準確率的函式,排除了mask的影響
mask = 1-y_true[:,:,-1] if self.ignore_last_label else None
y_true,y_pred = y_true[:,:,:self.num_labels],y_pred[:,:,:self.num_labels]
isequal = K.equal(K.argmax(y_true, 2), K.argmax(y_pred, 2))
isequal = K.cast(isequal, 'float32')
if mask == None:
return K.mean(isequal)
else:
return K.sum(isequal*mask) / K.sum(mask)
除去註釋和accuracy的程式碼,真正的CRF的程式碼量也就30行左右,可以說跟哪個框架比較都稱得上是簡明的CRF實現了吧~
用純Keras實現一些複雜的模型,是一件頗有意思的事情。目前僅在tensorflow後端測試通過,理論上相容theano、cntk後端,但可能要自行微調。
使用案例 #
我的Github中還附帶了一個使用CNN+CRF實現的中文分詞的例子,用的是Bakeoff 2005語料,例子是一個完整的分詞實現,包括viterbi演算法、分詞輸出等。
Github地址:https://github.com/bojone/crf/
相關的內容還可以看我之前的文章:
結語 #
終於介紹完了,希望大家有所收穫,也希望最後的實現能對大家有所幫助~
轉載到請包括本文地址:https://spaces.ac.cn/archives/5542