1. 程式人生 > >Explainable Recommendation: A Survey and New Perspectives讀書筆記

Explainable Recommendation: A Survey and New Perspectives讀書筆記

推薦系統的研究問題可分成5W,可解釋性推薦主要是回答why這個問題。
- when time-aware recommendation
- what application-aware recommendation
- who social recommendation
- where location-based recommendation
- why explainable recommendation

摘要

可解釋性推薦是在給使用者提供推薦的同時,也給使用者解釋為什麼的一種個性化推薦方法,能夠幫助提升推薦系統的效果、效率、說服性以及使用者滿意度。這篇文章主要綜述了2018年以前的可解釋性推薦的相關工作,本文的貢獻如下(1)按照時間的順序,對可解釋性推薦研究進行綜述,從早期的使用者學習方法,到近期的基於model的方法。(2)將可解釋性推薦方法進行了歸類,包括user-based, item-based, model-based, 以及post-model explanations。(3)總結了可解釋性推薦在不同領域的應用,包括product recommendation, social recommendation, POI recommendation等。(4)從廣義的IR和機器學習角度分析可解釋性推薦以及他們之間的聯絡。(5)最後提出了未來可探索的研究方向。

Section 1. Introduction

1.1 Historical review

儘管可解釋推薦是由zhang等在2014年正式提出的,但是早期已有不少研究者在研究中已經對其有所涉及。例如, Schafer 等[1999] 提出推薦系統在給使用者推薦時,會考慮該產品與使用者過去喜歡的某些產品相似。Herlocker 等[2000] 通過對使用者的問卷調查來解釋MovieLens中協同過濾演算法。

較早期的可解釋性推薦的研究大都是基於content-based recommendation或者 collaborative-filtering (CF)。在Content-based 方法主要思想是把使用者和被推薦項建模成一些可用的資訊屬性,例如電商中的價格、顏色、商品品牌或是電影中的流派、導演、時長等(Balabanović and Shoham [1997], Pazzani and Billsus [2007])。一般來說,在content-based方法中被推薦項的內容特徵更容易理解,即對於使用者而言,為什麼該專案從眾多候選中被推薦出來。直觀來講,就是告知使用者被推薦項的那些特定特徵是他所感興趣的。
但是,收集這樣的內容資訊是非常耗時耗力的,因此,Collaborative filtering (CF) based 方法則是期望通過利用群體智慧來避開這個困難 (Ekstrand et al. [2011])。User-based CF 是由GroupLens新聞推薦系統中Resnick等[1994]提出的,其主要思想是將使用者表示成一個評分的向量,然後基於其他使用者對於該專案的平均評分來預測缺失的使用者評分。隨後,item-based CF由Sarwar等[2001] 提出,Linden等[2003] 將其應用於Amazon 商品推薦系統中。Item-based CF 將每個被推薦項表示成評分的向量,然後基於相似專案的平均評分來預測缺失評分。User-based CF可被解釋為“與你相似的人也喜歡這一項”,item-based CF可以解釋為“這一項與你之前喜歡的專案相似”。

2008年Koren提出了Latent Factor Models (LFM),隨後Matrix Factorization (MF)-based CF開始盛行。雖然取得了很好的推薦效果,但是這些隱含因子卻無法為推薦提供可解釋性。

隨後,研究者們開始了model-based explainable recommendation的研究。比較有代表性的是McAuley 和 Leskovec [2013] 將隱含維度與LDA中的隱含主題一一對應。Zhang 等[2014a] 正式的定義了可解釋性推薦的問題,並提出來顯示因子模型 Explicit Factor Model (EFM),即將隱含維度與顯示的商品特徵一一對應。

1.2 Classification of the Methods
隨後的介紹中,我們將從兩個方面來介紹,(1)生成的解釋型別,包括文字、視覺等(2)生成解釋所依賴的模型,包括matrix factorization, topic modeling, graph-based, deep learning, knowledge-graph, association rules, 以及post-hoc models等。

Section 2. Different Forms of Explanations

解釋的不同形式如圖2.1所示。
不同形式的解釋

2.1 User-based and Item-based Explanations
在user-based collaborative filtering (Resnick et al. [1994])中,Herlocker 等 [2000]嘗試利用其鄰居使用者評分的聚合直方圖來提供解釋,如圖2.2所示。
user-based explanations

而在item-based collaborative filtering (Sarwar et al. [2001])中,可以利用與使用者曾經喜歡的某些項之間的相似來為被推薦項提供解釋,如圖 2.3所半部分所示。
item-based explanation and user-based explanation

2.2 Content-based Explanation

Content-based 推薦可以在不同應用場景下通過不同item的內容資訊來實現。例如,電影推薦中,可以利用體裁、演員、導演等特徵;書籍推薦可以利用圖書型別、價格、作者等特徵。 content-based explanation通常的做法是利用被推薦項特徵與目標使用者興趣屬性相吻合來提供推薦解釋。Vig 等et al. [2009] 利用標籤作為內容特徵進行推薦以及生成相應的解釋,如圖 2.4所示。
Tags explanation

Hou等[2018] 使用雷達圖來解釋為什麼某些專案被推薦給一個使用者,為什麼有些專案不被推薦給使用者,如圖2.5所示。如果一個專案被推薦了,那麼它的多數特徵應該符合目標使用者的偏好。
另一方面,基於使用者人口統計學特徵的推薦也被用於解釋推薦中,例如使用者的age, gender,location等。例如Zhao et al. [2014] 以及Zhao et al. [2016] 的工作。

2.3 Textual Explanations

隨著Web 2.0的發展,使用者在網際網路上的生成內容也是急劇增加,例如使用者在電商網站上的評論以及在社會網路中的博文。這種資訊有助於獲得更加完善的使用者傾向,並且可以用於提供細粒度和更加可信的推薦解釋。基於這個動機,許多模型嘗試利用不同的文字資訊,通常生成文字句子作為解釋。

相關的方法可以進一步分為基於特徵和基於句子的解釋。如圖2.1,基於特徵的解釋,一般用產品的特徵例如顏色、質量等,或者是使用者的評分。基於句子的解釋通常給使用者一個句子,告訴他為什麼相機鏡頭被推薦。

為了從文字中抽取產品特徵和情感,zhang等[2014b]開發了一個情感抽取工具Sentires,可以從某個產品領域的產品評論中抽取“feature-oppion-sentiment”這樣的三元組。例如,在手機領域,“noise-high-negative”,“screen-clear-positive”等。基於這個工具,zhang等提出了顯示因子模型用於可解釋性推薦,將feature-opinion對的詞雲作為解釋。例如,“bathroom-clear”不僅暗示了專案的特徵,同時也將使用者在特徵上的評分集合。這些情感增強的建模方法也被應用於POI Zhao et al. [2015] 和 social recommendation Ren et al. [2017]中。除了情感詞和情感評分以外,產品特徵的詞雲也可以作為解釋。例如,Wu and Ester [2015] 利用主題模型進行可解釋推薦,生成的主題詞雲在hotel的location,service以及room三個方面,如圖2.6所示。

Word cloud explanation

在sentence-level的方法中,用完整的、語義連貫的句子作為解釋。句子可以由固定的模板來建立,如圖2.7所示。
Generating sentence

同時,文字解釋句子也可以不用模板來生成,例如,Costa et al. [2017] 嘗試利用LSTM生成item的評論解釋,通過學習大規模使用者評論資料,模型可以生成合理的評論作為解釋,如圖2.8所示。
Generating sentence explanations by lstm

Li 等[2017]利用GRU對某個專案的大量評論進行學習並生成摘要,如圖2.9所示。儘管這些tips不是直接來自於可解釋性推薦模型,但是他們對於使用者理解這些專案的關鍵特徵非常有幫助。
Example of reviews and tips

2.4 Visual Explanations

為了利用視覺化圖片,一些研究工作嘗試利用產品圖片作可解釋推薦。特別的,Chen et al. [2018c] 提出了視覺化的可解釋推薦來突出產品圖片中使用者關注的區域,如圖2.10和2.11所示。
visual explanations

這裡寫圖片描述

2.5 Social Explanation
Park et al. [2017] 提出了UniWalk演算法利用評分和社會網路來生成可解釋和準確的產品推薦。如圖2.13所示。
Explanations based on similar users

2.6 Hybrid Explanations
Kouki et al. [2017] 基於概率模型提出了一個混合推薦模型。為了完成可解釋性的目標,作者利用混合模型分析使用者在系統中的傾向。通過線上使用者的調查,作者評價了文字、視覺化以及圖形化的解釋,如圖2.14所示。
visualizations

Section 3. Explainable Recommendation Models

.
近來,流行的可解釋推薦方法大都是基於模型的方法,如基於matrix/tensor factorization, factorization machines, topic modeling, 以及deep recommendation models,同時模型和推薦結果都是可解釋的。

3.1 Matrix Factorization for Explainable Recommendation
基於矩陣分解的推薦早期都是基於隱含因子模型,但是由於隱含因子模型中的隱含因子沒有可解釋性。於是,Zhang et al. [2014a] 提出了Explicit Factor Model。EFM大致方法如圖3.1所示。隨後,Zhang et al .[2015b] 對EFM做了進一步的擴充套件。
Overview of the Explicit Factor Model

Chen et al. [2016]將EFM擴充套件為tensor分解。作者通過抽取產品評論,得到user-item-feature cube,基於這個cube,通過pair-wise 的learning to rank的方法預測使用者對於特徵和專案的偏好。同時,模型後面還考慮了產品類別的進一步擴充套件,以緩解資料稀疏的問題。
Learning to rank features for explainable recommendation