1. 程式人生 > >論文閱讀——LANE-Label Informed Attributed Network Embedding原理即實現

論文閱讀——LANE-Label Informed Attributed Network Embedding原理即實現

帶標籤資料的sku嵌入方法

方法名:Label Informed Attributed Network Embedding

簡稱:LANE

sku嵌入向量中應包括:user對sku的行為,sku屬性,sku標籤

演算法基本流程

  • 從使用者對sku的pv序列構造網路
  • 清洗出sku屬性
  • 輸入模型計算嵌入 LANE(network,attribute,(label),dim)
  • sku嵌入向量評估
  • 輸入seq2seq訓練
  • 預測

LANE 細節

網路的構造

construct.png

  • 從hive表裡得到使用者對sku的pv序列
  • 將相鄰的sku關係,設定為網路中node之間有一條有向邊

演算法虛擬碼

Algorithm :Label Informed Attributed Network Embedding
Input: d d (嵌入維度)
Input: m a x _

i t e r max\_iter (迭代次數)
Input: G G (帶權鄰接矩陣)
Input
: A A (屬性矩陣)
Input: α 1 \alpha _{1} , α 2 \alpha_{2} (權重引數)

Output:H(sku嵌入矩陣)

設sku數量(即構造圖中的節點數量)為 n n ,sku屬性的維度為 m m , sku標籤的維度為 k k ,sku嵌入向量維度為 d d

G R n n , A R n m , Y R n k G \in R^{n*n}, A \in R^{n*m}, Y \in R^{n*k}

S ( G ) , S ( A ) R ( n n ) S^{(G)},S^{(A)} \in R^{(n*n)}

L ( G ) , L ( A ) , L ( Y ) R n n L^{(G)}, L^{(A)}, L^{(Y)} \in R^{n*n}

U ( G ) , U ( A ) , U ( Y ) , H R n d U^{(G)}, U^{(A)}, U^{(Y)},H \in R^{n*d}

1 : Construct the affinity matrices S ( G ) S^{(G)} and S ( A ) S^{(A)}
2 : Compute Laplacian matrices L ( G ) L^{(G)} , L ( A ) L^{(A)} and L ( Y ) L^{(Y)}
3 : Initialize t = 1 t = 1 , U ( A ) = 0 , U ( Y ) = 0 , H = 0 U^{(A)}=0, U^{(Y)} =0,H=0
4 : repeat
5 :      Update U ( G ) U^{(G)}
( L ( G ) + α 1 U ( A ) U ( A ) T + α 2 U ( Y ) U ( Y ) T + H H T ) U ( G ) = λ 1 U ( G ) (L^{(G)} + \alpha_{1} U^{(A)} U^{(A)^{T}} + \alpha_{2} U^{(Y)} U^{(Y)^{T}} + HH^{T})U^{(G)} = \lambda_{1}U^{(G)}
6 :      Update U ( A ) U^{(A)}
( α 1 L ( A ) + α 1 U ( G ) U ( G ) T + H H T ) U ( A ) = λ 2 U ( A ) (\alpha_{1}L^{(A)} + \alpha_{1} U^{(G)} U^{(G)^{T}} + HH^{T})U^{(A)} = \lambda_{2}U^{(A)}
7 :      Update U ( A ) U^{(A)}
( α 2 L ( Y Y ) + α 2 U ( G ) U ( G ) T + H H T ) U ( Y ) = λ 3 U ( Y ) (\alpha_{2}L^{(YY)} + \alpha_{2} U^{(G)} U^{(G)^{T}} + HH^{T})U^{(Y)} = \lambda_{3}U^{(Y)}

相關推薦

論文閱讀——LANE-Label Informed Attributed Network Embedding原理實現

帶標籤資料的sku嵌入方法 方法名:Label Informed Attributed Network Embedding 簡稱:LANE sku嵌入向量中應包括:user對sku的行為,sku屬性,sku標籤 演算法基本流程 從使用者對sku的pv序列構造網路

[論文閱讀] Batch Normalization: Accelerating Deep Network Training By Reducing Internal Covariate Shift

Background 存在什麼問題? 訓練深度神經網路是比較複雜的,因為每層輸入的分佈在訓練過程中都在變化。如果每層輸入的分佈在不停的變化,那我們就需要不停的調整我們的引數去補償這部分變化,這就使得訓練過程更加緩慢。 此外,由於分佈的變化使得使用

論文閱讀 Multi-Scale Structure-Aware Network for Human Pose Estimation

1、 文章在hourglass的網路基礎上做了四點改進 1)多尺度監督來加強語義特徵學習來融合多尺度的特徵 2)多尺度的迴歸網路來優化整體的人體結構 3)structure-aware損失(在多

論文閱讀】Deeply-Recursive Convolutional Network for Image Super-Resolution

開發十年,就只剩下這套架構體系了! >>>   

Convolution Neural Network (CNN) 原理實現

1. Convolution(卷積)類似於高斯卷積,對imagebatch中的所有image進行卷積。對於一張圖,其所有feature map用一個filter捲成一張feature map。 如下面的程式碼,對一個imagebatch(含兩張圖)進行操作,每個圖初始有3張feature map(R,G,B)

Network Embedding 論文小覽

兩種 ive 數據 拼接 papers 衡量 ner math 結果 Network Embedding 論文小覽 轉自:http://blog.csdn.net/Dark_Scope/article/details/74279582,感謝分享! 自從word2vec橫

network embedding 需讀論文

action ane ips pub nlp ppr margin ice for Must-read papers on NRL/NE. github: https://github.com/nate-russell/Network-Embedding-Resource

論文閱讀:A Primer on Neural Network Models for Natural Language Processing(1)

選擇 works embed 負責 距離 feature 結構 tran put 前言 2017.10.2博客園的第一篇文章,Mark。 由於實驗室做的是NLP和醫療相關的內容,因此開始啃NLP這個硬骨頭,希望能學有所成。後續將關註知識圖譜,深度強化學習等內

論文閱讀之FaceNet: A Unified Embedding for Face Recognition and Clustering

深度 clust 識別 傳統 創新 圖像 進行 rec 大創 名稱:FaceNet: A Unified Embedding for Face Recognition and Clustering 時間:2015.04.13 來源:CVPR 2015 來自谷歌的

《Macro-Micro Adversarial Network for Human Parsing》論文閱讀筆記

邊界 分享圖片 strong 避免 也有 ima 1.4 以及 potential 《Macro-Micro Adversarial Network for Human Parsing》 摘要:在人體語義分割中,像素級別的分類損失在其低級局部不一致性和高級語義不一致性方面存

論文閱讀筆記(十一)Network In Network

hole orm 後來 entropy function ppr master 3層 上進 該論文提出了一種新穎的深度網絡結構,稱為“Network In Network”(NIN),以增強模型對感受野內local patches的辨別能力。與傳統的CNNs相比,NIN主要

網路嵌入演算法-Network Embedding-LINE/LANE/M-NMF

本文結構安排 M-NMF LANE LINE 什麼是Network Embedding? LINE [Information Network] An information network is defined as

論文閱讀-Attention-based Transactional Context Embedding for Next-Item Recommendation

Paper Reading —— Attention-based Transactional Context Embedding for Next-Item Recommendation 基於注意力的事務上下文嵌入下一項推薦 Abstract 在電商交易環境中向user推薦下一個

《An End-to-End Trainable Neural Network for Image-based Sequence Recognition and Its...》論文閱讀之CRNN

An End-to-End Trainable Neural Network for Image-based Sequence Recognition and Its Application to Scene Text Recognition paper: CRNN 翻譯:CRNN

《Detecting Text in Natural Image with Connectionist Text Proposal Network論文閱讀之CTPN

前言 2016年出了一篇很有名的文字檢測的論文:《Detecting Text in Natural Image with Connectionist Text Proposal Network》,這個深度神經網路叫做CTPN,直到今天這個網路框架一直是OCR系統中做文字檢測的一個常用網路,極大

論文閱讀筆記十八:ENet: A Deep Neural Network Architecture for Real-Time Semantic Segmentation

每一個 內核 基於 proc vgg 包含 rep 重要 偏差 論文源址:https://arxiv.org/abs/1606.02147 tensorflow github: https://github.com/kwotsin/TensorFlow-ENet 摘要

《Learning to Compare: Relation Network for Few-Shot Learning》論文閱讀

通過對比實現少樣本或零樣本學習Learning to Compare: Relation Network for Few-Shot Learning 動機 我們就發現了,我們人之所以能夠識別一個新的東西,在於我們人的視覺系統天生的能夠對任意物體提取特徵,並進行比

Feed Forward and Backward Run in Deep Convolution Neural Network 論文閱讀筆記

徒手實現CNN:綜述論文詳解卷積網路的數學本質 Abstract 對卷積網路的數學本質和過程仍然不是太清楚,這也就是本論文的目的。 我們使用灰度圖作為輸入資訊影象, ReLU 和 Sigmoid 啟用函式構建卷積網路的非線性屬性, 交叉熵損失函式用於計算

論文閱讀筆記《Gated Context Aggregation Network for Image Dehazing and Deraining》WACV19

輸出 每一個 為什麽 作用 導致 作者 ont 而不是 簡單的 目錄: 相關鏈接 方法亮點 方法細節 實驗結果 總結與收獲 相關鏈接: 論文:https://arxiv.org/abs/1811.08747 源碼:暫無 方法亮點: 提出端到端的去霧網絡,不

論文閱讀筆記二十二:Learning to Segment Instances in Videos with Spatial Propagation Network(CVPR-20017)

論文源址:https://arxiv.org/abs/1709.04609 摘要       該文提出了基於深度學習的例項分割框架,主要分為三步,(1)訓練一個基於ResNet-101的通用模型,用於分割影象中的前景和背景。(2)將通用模型進行微調成為一個例項分割模型,藉