1. 程式人生 > >推薦系統論文閱讀——Factorizing Personalized Markov Chains for Next-Basket Recommendation

推薦系統論文閱讀——Factorizing Personalized Markov Chains for Next-Basket Recommendation

論文題目:Factorizing Personalized Markov Chains for Next-Basket Recommendation

Factorizing Personalized Markov Chains for Next-Basket Recommendation

矩陣分解(MF)和馬爾可夫鏈(MC)是推薦系統常用的兩種方法。矩陣分解通過將觀測到的專案-使用者矩陣進行分解模擬使用者的喜好,而馬爾科夫鏈通過觀察使用者近期的行為(關於專案的時間序列)來預測下一個時間點的行為。作者將這兩種方法結合在了一起。對於每一個使用者,我們需要學習其對應的一個轉移矩陣,所以我們需要一個三維矩陣來記錄這些資訊。但是由於所觀察到的這部分資訊非常有限,我們用成對的互動模型來分解這個三維矩陣。為了學習模型的引數,我們引入了貝葉斯個性化排序的框架(詳見

論文閱讀BPR)來處理資料。

這篇文章解決的問題中,每一個使用者對專案的時間行為都是已知的,例如:使用者的購買記錄等。在這種情況下,同一時間可能會有很多不同的物品被購買,我們用“a set/basket”來定義這些物體。我們的任務就是給使用者推薦下一次瀏覽網站時他想買的物品。

Contributions

1、我們引入了基於馬爾可夫鏈的個性化轉移矩陣,這使得我們可以同時捕捉時間資訊和長期的使用者喜好資訊。
2、為了解決轉移矩陣的稀疏問題,我們引入了矩陣分解模型,可以減少引數並改善表現結果。
3、我們的實驗證明我們的模型表現優於其他基於時間序列資訊的模型。

符號說明

同一時間,使用者可能會買多個物品,這些物體的集合稱為“一個 basket”。我們可以用下圖來表示:

假設 U 為所有使用者的集合,I 為所有專案的集合。對於每一個使用者 u,他的購買歷史用 Bu 來表示,Bu:=(Bu1,,Butu1),其中,ButI 。所有使用者的購買歷史為 B:={Bu1,,Bu|U|}

專案推薦任務可以表述為使用者 ut 個時間建立個性化的排名:

<u,tI2

利用這個排名,我們可以為使用者推薦排名前 n 的物體。

Factoring Personalized Markov Chains (FPMC)

Personalized Markov Chains for Sets

首先,我們介紹非個性化馬爾可夫鏈的模型,然後運用最大似然估計(MLE)來求解引數,再將其擴充套件到個性化馬爾科夫鏈。

Markov Chains for Sets
非個性化馬爾可夫鏈模型即假設每一個使用者的轉移矩陣是相同的。而個性化推薦只是體現在將轉移矩陣應用於使用者的最後一次購買的物品,這些物體是不同的。
m 階馬爾可夫鏈的模型我們一般表示為:

p(Xt=xt|Xt1=xt1,,Xtm=xtm)

-
Xt,,Xtm 是變數,xt,,xtm 是它們的實際取值,變數取值為所有的 basket B 中的元素。因此,我們的狀態空間的大小為 2|I|

  • 一個集合有n個元素,那麼它的子集共有:C0n+C0n+C0n++C0n=2n
  • 對於集合 R|R| 指集合 R 中元素的個數。

顯然,對於這麼大的狀態空間,馬爾科夫鏈的長度不宜設定過長。為了簡便,我們定義馬爾可夫鏈的階數 m=1。則,basket 轉移概率為:

p(Bt|Bt1)

由於的狀態空間的大小為 2|I|m=1,因此轉移矩陣的大小為 2|I|×2|I| 。可以看出,資料空間仍然很大,因此,我們對轉移矩陣 A 做出以下修改。

我們先來通過下面的圖有一個直觀的理解。

左邊是我們將 Figure1 中的 basket 用 |I| 維的二值向量表示出來。右邊是我們從這些資料中計算得到的轉移矩陣,# 列列出的是一共有幾組資料參與計算。我們來看一下計算過程。

例如,第三行,計算的是,如果前一時刻買了物品c,那麼下一時刻買不同的物品對應的概率是多少?我們可以使用的資料一共有三組,分別是:(a,b,c)(b,c)(b,c)(a,b)(c,e)(e)。計算下一時刻每個物體出現的次數,我們可以得到:

a31=13=0.3,a32=23=0.7,a33=13=0.3,a34=0,a35=

相關推薦

推薦系統論文閱讀——Factorizing Personalized Markov Chains for Next-Basket Recommendation

論文題目:Factorizing Personalized Markov Chains for Next-Basket Recommendation Factorizing Personalized Markov Chains for Next-Bas

論文閱讀:Billion-scale Commodity Embedding for E-commerce Recommendation in Alibaba

阿里在KDD 2018上開放了它們的方法:《Billion-scale Commodity Embedding for E-commerce Recommendation in Alibaba》, 我們來看下:同時本文使用了公開資料集對原文的內容進行復現。 介紹 網際網路技術持續改變著商業版

推薦系統論文筆記(4):Comparison of Collaborative Filtering Algorithms:Limitations of Current Techniques .....

一、基本資訊 論文題目:《Comparison of Collaborative Filtering Algorithms:Limitations of Current Techniques and Proposals for Scalable,High-Performance Recommen

推薦系統論文筆記(2):Towards the Next Generation of Recommender Systems:A Survey of the State-of-the-Art ....

一、基本資訊 論文題目:《Towards the Next Generation of Recommender Systems:A Survey of the State-of-the-Art and Possible Extensions》 發表時間:July 2005,IEEE Tran

推薦系統論文筆記(1):Hybrid Recommender Systems:Survey and Experiments

一、基本資訊 論文題目: 《Hybrid Recommender Systems:Survey and Experiments》 論文發表時間: 2002, 論文作者及單位:Robin  Burke(California State University) 我的評分:5顆星

推薦系統論文筆記(7):A survey of collaborative filtering based social recommender systems

一、基本資訊 論文題目:《A survey of collaborative filtering based social recommender systems》 發表時間:2014,Computer Communications 論文作者及單位:Yang, X.(Polytechni

推薦系統論文筆記(6):Social Recommendation: A Review

一、基本資訊 論文題目:《Social Recommendation: A Review》 發表時間:2013 論文作者及單位:Jiliang Tang,Xia Hu,Huan Liu  (Arizona State University) 論文地址:https://lin

近年推薦系統論文調查彙總

現在推薦系統得到了廣泛的應用,在百度、京東、淘寶、豆瓣等均到看推薦系統的影子。推薦系統屬於機器學習的範疇,是一種預測模型,其型別大致可以分為:(1)使用者評分預測推薦(2)top-n 推薦(3)分類推薦。一般有collaborative filtering方法、

基於條件知識庫(CKB)的對話問答系統--論文閱讀筆記

本文是‘’Learning to Extract Conditional Knowledge for Question Answering using Dialogue‘’論文的閱讀筆記。最近開始看QA方面的一些論文,剛入門,很多東西都不太懂,感覺很吃力,慢慢堅

論文閱讀-Attention-based Transactional Context Embedding for Next-Item Recommendation

Paper Reading —— Attention-based Transactional Context Embedding for Next-Item Recommendation 基於注意力的事務上下文嵌入下一項推薦 Abstract 在電商交易環境中向user推薦下一個

論文閱讀 | Multi-Cast Attention Networks for Retrieval-based Question Answering and Response Prediction

Multi-Cast Attention Networks for Retrieval-based Question Answering and Response Prediction (KDD 2018) 1.主要特點: 通常,一個句子應用一次attention,然後學習最終表

論文閱讀】Siamese Neural Networks for One-shot Image Recognition

 關鍵詞:      one-short learning :  待解決的問題只有少量的標註資料,先驗知識很匱乏,遷移學習就屬於one-short learning的一種 zero-short learning: 這個種情況下完全沒有

論文閱讀】Between-class Learning for Image Classification

文章:Between-class Learning for Image Classification 連結:https://arxiv.org/pdf/1711.10284.pdf CVPR2018 作者嘗試了將在音訊上的方法用在影象上的,並提出了一種將影象作為波形處理的混合方法(作者認為圖形波長融

論文閱讀-(CVPR 2017) Kernel Pooling for Convolutional Neural Networks

在這篇論文中,作者提出了一種更加通用的池化框架,以核函式的形式捕捉特徵之間的高階資訊。同時也證明了使用無引數化的緊緻清晰特徵對映,以指定階形式逼近核函式,例如高斯核函式。本文提出的核函式池化可以和CNN網路聯合優化。 Network Structure Overview Kernel Pooling

論文閱讀】Slot-Gated Modeling for Joint Slot Filling and Intent Prediction

文章目錄 論文部分 Abstract Introduction Proposed Approach 2.1 基於注意力機制的RNN模型 2.2 實驗部

論文閱讀】Aggregated Residual Transformations for Deep Neural Networks Saining(ResNext)

這篇文章是kaiming大神的組的工作,在resnet上繼續改進。一作謝賽寧,2013年從上海交大本科畢業後去UCSD讀博士,現在他引1400+了(不知道我畢業時能不能有這個的一半QAQ),導師是Zhuowen Tu。 Introduction 現代的網路設計中通常會次堆疊

論文閱讀】Bag of Tricks for Image Classification with Convolutional Neural Networks

Bag of Tricks for Image Classification with Convolutional Neural Networks 論文:https://arxiv.org/pdf/1812.01187.pdf 本文作者總結了模型訓練過程中可以提高準確率的方法,如題,

論文閱讀】Batch Feature Erasing for Person Re-identification and Beyond

轉載請註明出處:https://www.cnblogs.com/White-xzx/ 原文地址:https://arxiv.org/abs/1811.07130 【Abstract】   這篇文章展示了行人ReID的一個新的訓練機制——批特徵擦除(Batch Feature Erasing,BFE)。作

論文閱讀】ConvNet Architecture Search for Spatiotemporal Feature Learning

【論文閱讀】ConvNet Architecture Search for Spatiotemporal Feature Learning 這是一篇和I3D同一時間的論文,論文的作者就是提出C3D網路的那個人,本文也是通過實驗探索了更優的3D網路結構,提出了一種Res3D網路模型,該網路

論文閱讀——《Crafting a Toolchain for Image Restoration by Deep Reinforcement Learning》

對於同一張圖片的不同區域,需要的denoise的網路是一樣的嗎?有些區域可能很簡單的網路就可以實現很好的效果,但有些區域需要比較複雜的網路才可以得到不錯的效果。 對於不同的圖片,也是如此,有些圖片需要複雜的網路,有些圖片不需要複雜的網路。 如何的自適應地去應對不同的condition?