1. 程式人生 > >Question Answering on Knowledge Bases and Text using Universal Schema and Memory Networks

Question Answering on Knowledge Bases and Text using Universal Schema and Memory Networks

來源: ACL2017短文 關鍵詞:imaging captioning; attention mechanism 原文 # Motivation mermaid graph LR QA---KBQA(knowledge based) QA---raw_text(raw text) KBQA(knowledge based)---基於符號表示 KBQA(knowledge based)---基於深度學習 KBQA的效能會受到知識圖譜不完整的影響,text的資訊更多,但是非結構化的。 這個問題的難點在於如何將將兩個不同來源的資訊轉換成統一的編碼。 作者想到了使用Universal schema

(最早用在關係分類上) 。本質上就是將不同來源的資訊轉化在一個特徵空間後拼接起來。 ## Problem Definition

Given a question q with words w1 , w2 , … , wn , where these words contain one blank and at least one entity, our goal is to fill in this blank with an answer entity q a using a knowledge base K and text T .

Method

Memory

對於知識庫,設(s,r,o)為KB中的一個triple,key:由

sRdrRd組成的kR2d,vlaue: ‘o’的embedding vRd. 對於一個文字事實,k=[w1,...,s,...,blank,wn] and value as just the entity ‘o’. kR2d是雙向LSTM的output,vlaue: ‘o’的embedding vRd.

Question Encoder

enter image description here

Attention over cells

這裡採用點積模型計算注意力。 為了實現更新複雜的計算,我們可以讓主網路和外部記憶進行多輪互動,即多跳(Multi-Hop)操作。在第 k 輪互動中,主網路根據上次從外部記憶中讀取的資訊,產生新的查詢向量。 enter image description here

Experiments

該部分開始有對各類問答資料集的介紹,可以參考。

A limitation of this dataset is that it contains only the sentences that have entities connected by at least one relation in Freebase, making it skewed towards Freebase as we will see (§ 4.4). enter image description here

結論與思考

本文在幾乎不需要任何手工定義的特徵(hand- crafted features),也不需要藉助詞彙對映表,詞性標註,依存樹等條件下取得了當時很好的效果。 思考:KB and text exploited together的想法很久之前就有,只不過效果一般;Our model is a key-value MemNN with universal schema as its memory,並且只提供了一個數據集上的結果。但兩者結合解決該問題是創新點,並且在某個資料集上表現最好。