1. 程式人生 > >『 天池競賽』O2O優惠券使用預測思路總結

『 天池競賽』O2O優惠券使用預測思路總結

目錄

正式開始做是從十月底開始的,之前參加了新手賽,而這一次正式賽可以說是真正認真做的一次,中間和隊友一起學習了很多,也有小小的收穫,不管這次成績如何,以後還有機會。

我的成績

資料與評價方式

賽題提供使用者在2016年1月1日至2016年6月30日之間真實線上線下消費行為,預測使用者在2016年7月領取優惠券後15天以內的使用情況。 使用優惠券核銷預測的平均AUC(ROC曲線下面積)作為評價標準。 即對每個優惠券coupon_id單獨計算核銷預測的AUC值,再對所有優惠券的AUC值求平均作為最終的評價標準。
當測試集中的正負樣本的分佈變化的時候,ROC曲線能夠保持不變。因為在實際的資料集中經常會出現類不平衡,所以次點也是AUC指標的優勢。

解決方案

提供資料的區間是2016-01-01~2016-06-30,預測七月份使用者領券使用情況,即用或者不用,轉化為二分類問題,然後通過分類演算法預測結果。首先就是特徵工程,其中涉及對資料集合的劃分,包括提取特徵的區間和訓練資料區間。接著就是從特徵區間中提取特徵,包括使用者特徵、商戶特徵、優惠券特徵、使用者商戶組合特徵、使用者優惠券組合特徵。後期在測試區間提取了當天的前後7/3/1天的領券資訊(這裡面後七天的特徵其實是不能應用於工業應用的,因為實際預測中你無法知道後7/3/1天的領券資訊),提升較大。最後使用GBDT、RandomForest、LR進行基於rank的分類模型融合

資料劃分

最初沒有使用資料劃分,導致特徵中產生資料洩露,以至於在訓練資料上效果很好,線下測試也還不錯,在線上表現確差強人意,後來劃分了之後有明顯提升。

集合 預測區間 特徵區間
預測集 領券:20160701~20160731 領券&消費:20160101~20160630
訓練集 領券:20160515~20160615
消費:20160515~20160630
領券:20160101~20160501
消費:20160101~20160515

可以劃分多個訓練集。

特徵工程

主要有五大特徵類:使用者特徵、商戶特徵、優惠券特徵、使用者商戶組合特徵、使用者優惠券組合特徵,賽題包括online和offline的資料,由於裡面只有部分使用者重合,商戶優惠券等並未有重合,個人臆測線上應該是淘寶天貓的購買消費資料,有一定關聯,但關係微弱,因此只向其中提取了使用者特徵。而offline資料集就提取了所有五個特徵類。一下是各部分特徵:

  • 使用者特徵:u

    • 線下領取優惠券但沒有使用的次數 u1
    • 線下普通消費次數 u2
    • 線下使用優惠券消費的次數 u3
    • 線下平均正常消費間隔 u4
    • 線下平均優惠券消費間隔 u5
    • u3/u1 使用優惠券次數與沒使用優惠券次數比值 u6
    • u3/(u2+u3) 表示使用者使用優惠券消費佔比 u7
    • u4/15 代表15除以使用者普通消費間隔,可以看成使用者15天內平均會普通消費幾次,值越小代表使用者在15天內普通消費概率越大 u8
    • u5/15 代表15除以使用者優惠券消費間隔,可以看成使用者15天內平均會普通消費幾次,值越大代表使用者 在15天內普通消費概率越大 u9
    • 領取優惠券到使用優惠券的平均間隔時間 u10
    • u10/15 表示在15天內使用掉優惠券的值大小,值越小越有可能,值為0表示可能性最大 u11
    • 領取優惠券到使用優惠券間隔小於15天的次數 u12
    • u12/u3 表示使用者15天使用掉優惠券的次數除以使用優惠券的次數,表示在15天使用掉優惠券的可能,值越大越好。 u13
    • u12/u1 F014 表示使用者15天使用掉優惠券的次數除以領取優惠券未消費的次數,表示在15天使用掉優惠券的可能,值越大越好。 u14
    • u1+u3 領取優惠券的總次數 u15
    • u12/u15 F016 表示使用者15天使用掉優惠券的次數除以領取優惠券的總次數,表示在15天使用掉優惠券的可能,值越大越好。 u16
    • u1+u2 一共消費多少次 u17
    • 最近一次消費到當前領券的時間間隔 u18
    • 最近一次優惠券消費到當前領券的時間間隔 u19
    • 使用者當天領取的優惠券數目 u20
    • 使用者前第i天領取的優惠券數目 u20si
    • 使用者後第i天領取的優惠券數目 u20ai
    • 使用者前7天領取的優惠券數目 u21
    • 使用者前3天領取的優惠券數目 u22
    • u22/u21 u23
    • u20/u22 u24
    • 使用者後7天領取的優惠券數目 u25
    • 使用者後3天領取的優惠券數目 u26
    • u26/u25 u27
    • u20/u26 u28
    • 使用者訓練、預測時間領取的優惠券數目 u29
    • 使用者當天領取的不同優惠券數目 u30
    • 使用者前第i天領取的不同優惠券數目 u30si
    • 使用者後第i天領取的不同優惠券數目 u30ai
    • 使用者訓練、預測時間領取的不同優惠券數目 u31
    • 按照7/4/2分解訓練、預測時間,提取此段視窗時間的特徵
    • 使用者7/4/2天領取的優惠券數目 u32_i
    • 使用者7/4/2天所領取的優惠券優惠率r1/r2/r3/r4排名 u_ri_ranki
    • 使用者7/4/2天所領取的優惠券優惠率r1/r2/r3/r4排名 u_ri_dense _ranki
    • u32_4/u32_7 u33
    • u32_2/u32_4 u34
    • u32_2/u32_7 u35
    • u20/u32_2 u36

    • 線上領取優惠券未使用的次數 action=2 uo1

    • 線上特價消費次數 action=1 and cid=0 and drate=”fixed” uo2
    • 線上使用優惠券消費的次數 uo3
    • 線上普通消費次數 action=1 and cid=0 and drate=”null” uo4
    • 線上領取優惠券的次數 uo1+uo3 uo5
    • uo3/uo5 線上使用優惠券次數除以線上領取優惠券次數,正比 uo6
    • uo3/uo4 線上使用優惠券次數除以線上普通消費次數,正比 uo7
    • uo2/uo4線上特價消費次數除以線上普通消費次數 uo8

    • 加入訓練預測時間前一個月的視窗特徵

    • 線下領取優惠券但沒有使用的次數 uw1

    • 線下普通消費次數 uw2
    • 線下使用優惠券消費的次數 uw3
    • 線下平均正常消費間隔 uw4
    • 線下平均優惠券消費間隔 uw5
    • uw3/uw1 使用優惠券次數與沒使用優惠券次數比值 uw6
    • uw3/(uw2+uw3) 表示使用者使用優惠券消費佔比 uw7
    • uw4/15 代表15除以使用者普通消費間隔,可以看成使用者15天內平均會普通消費幾次,值越小代表使用者在15天內普通消費概率越大 uw8
    • uw5/15 代表15除以使用者優惠券消費間隔,可以看成使用者15天內平均會普通消費幾次,值越大代表使用者在15天內普通消費概率越大 uw9
    • 領取優惠券到使用優惠券的平均間隔時間 uw10
    • uw10/15 表示在15天內使用掉優惠券的值大小,值越小越有可能,值為0表示可能性最大 uw11
    • 領取優惠券到使用優惠券間隔小於15天的次數 uw12
    • uw12/uw3 表示使用者15天使用掉優惠券的次數除以使用優惠券的次數,表示在15天使用掉優惠券的可能,值越大越好。 uw13
    • uw12/uw1 F014 表示使用者15天使用掉優惠券的次數除以領取優惠券未消費的次數,表示在15天使用掉優惠券的可能,值越大越好。 uw14
    • uw1+uw3 領取優惠券的總次數 uw15
    • uw12/uw15 F016 表示使用者15天使用掉優惠券的次數除以領取優惠券的總次數,表示在15天使用掉優惠券的可能,值越大越好。 uw16
    • F01+F02 一共消費多少次 uw17
  • 商戶特徵:m
    • 商戶一共的消費筆數:m0
    • 商戶優惠券消費筆數:m1
    • 商戶正常的消費筆數:m2
    • 沒有被使用的優惠券: m3
    • 商戶發放優惠券數目:m3+m1 m4
    • 商戶優惠券使用率:m1/m4 m5
    • 商戶在訓練、預測時間發行的優惠券數目 m6
    • 商戶當天發行的優惠券數目 m7
    • 商戶在訓練、預測時間有多少人在此店領券 m8
    • 商戶在當天有多少人在此店領券 m9
    • 按照7/4/2分解訓練、預測時間,提取此段視窗時間的特徵
    • 7/4/2天此商店優惠券發放數目 m10_i
    • m9 / m10_7 m11
    • m9 / m10_4 m12
    • m9 / m10_2 m13
    • m10_2 / m10_4 m14
  • 優惠券特徵:c
    • 折扣類的優惠券折扣率 r1
    • 滿減類優惠券滿減金額 r2
    • 滿減類優惠券減的金額 r3
    • 滿減類優惠券優惠率 (r2-r3)/r2 r4
    • c1+c2 此優惠券一共發行多少張 c0
    • 此優惠券一共被使用多少張 c1
    • 沒有使用的數目 c2
    • c1/c0 優惠券使用率 c3
    • 優惠力度 c5
    • 優惠力度在當天所領取優惠券裡面排名 c5_rank
    • 優惠力度在當天所領取優惠券裡面排名 c5_denserank
    • 優惠力度在當天同一店家所領取優惠券裡面排名 c5_rankm
    • 優惠力度在當天所領取優惠券裡面百分比排名 c5_rankp
    • 優惠力度在當天同一店家所領取優惠券裡面百分比排名 c5_rankmp
    • 此優惠券在訓練、預測時間發行了多少張 c6
    • 此優惠券在當天發行了多少張 c7
    • 領券當天周幾 c8
    • 領券當天是否週末 c9 c8,c9去掉效果更好了。。。。
    • 此優惠券在當天被多少人領過 c10
    • 此優惠券在訓練、預測時間被多少個人領過 c11
    • 此優惠券最後一次領券時間到此領券時間的間隔 c12
    • 此優惠券最後一次消費時間到此領券時間的間隔 c13
    • 按照7/4/2分解訓練、預測時間,提取此段視窗時間的特徵
    • 7/4/2天此優惠券發放數目 c14_i
    • c10 / c14_7 AS c15
    • c10 / c14_4 AS c16
    • c14_2 / c14_4 AS c17
    • c10 / c14_2 AS
  • 使用者和商戶組合特徵:um
    • 使用者在商店總共消費過幾次 um0
    • 使用者在商店使用優惠券幾次 um1
    • 使用者在商店領取優惠券未消費次數 um2
    • 使用者在商店普通消費次數 um3
    • um1/(um1+um2) 使用者在此商戶優惠券使用率 um4
    • um0/(u2+u3) 值大表示使用者比較常去的商戶 um5
    • um1/u3 值大表示使用者比較喜歡在那個商戶使用優惠券 um6
    • 使用者在訓練、預測時間在此商店領取的優惠券數目 um7
    • 使用者當天在此商店領取的優惠券數目 um8
    • 按照7/4/2分解訓練、預測時間,提取此段視窗時間的特徵
    • 7/4/2天此使用者在此商店領取的優惠券發放數目 um9_i
    • um8 / um9_7 um10
    • um8 / um9_4 um11
    • um8 / um9_2 um12
    • um9_2 / um9_4 um13
  • 使用者和優惠券組合特徵:uc

    • 使用者領取的優惠券數目 uc0
    • 使用者領取未消費的優惠券數目 uc1
    • 使用者消費了此優惠券的數目 uc2
    • uc02/uc0 uc3
    • 使用者在此期間領取了多少張此優惠券 uc4 partiton by uid, cid
    • 使用者在當天領取了多少張此優惠券 uc5
    • 領取優惠券時間-最後一次使用優惠券時間 uc6
    • uc6/ u5 uc7 正比

    • 使用者前第i天領取的此優惠券數目 uc5si

    • 使用者後第i天領取的此優惠券數目 uc5ai
    • 使用者前7天領取的此優惠券數目 uc8
    • 使用者前3天領取的此優惠券數目 uc9
    • uc9/uc8 uc10(若u21為0,則為1)
    • uc4/uc9 uc11
    • 使用者後7天領取的此優惠券數目 uc12
    • 使用者後3天領取的此優惠券數目 uc13
    • uc13/uc12 uc14
    • uc4/uc13 uc15
    • 按照7/4/2分解訓練、預測時間,提取此段視窗時間的特徵
    • 7/4/2天此使用者在此商店領取的優惠券發放數目 uc16_i
    • 使用者前後2/4/7領取的優惠券優惠率排名 uc17_i

演算法及模型融合

最初使用RF、GBDT兩種模型,GBDT效果優於RF,後期使用了多個GBDT和XGBoost,分別使用不同的引數、不同的正負樣本比例以rank的方式進行多模型的融合,效果有微小提升,但是由於計算量的限制沒有進一步展開。

模型融合

由於評估指標是計算每個coupon_id核銷預測的AUC值,然後所有優惠券的AUC值平均作為最終的評估指標,而rank融合方式對AUC之類的評估指標特別有效,所以採用此方法,公式為:

i=1nWeightiRanki

其中n表示模型的個數, Weighti表示該模型權重,所有權重相同表示平均融合。Ranki表示樣本在第i個模型中的升序排名。它可以較快的利用排名融合多個模型之間的差異,而不需要加權融合概率。

應用

基於引數,樣本(取樣率),特徵獲得多個模型,得到每個模型的概率值輸出,然後以coupon_id分組,把概率轉換為降序排名,這樣就獲得了每個模型的Ranki,然後這裡我們使用的是平均融合,Weighti=1/n,這樣就獲得了最終的一個值作為輸出。

線下評估

雖然這次比賽每天有四次評測機會,但是構建線下評估在早期成績比較差的時候用處很大,早期新增特徵之後線下評估基本和線上的趨勢保持一致(例如在添加了Label區間的領券特徵之後,線下提升十多個百分點,線上也是一致),對於新特徵衡量還是有參照性的。後期差距在0.1%級別的時候,就沒有參照性了。

線下評估在訓練集中取樣1/3 or 1/4 or 1/5做線下評估集合,剩下的做為訓練集訓練模型,並將評估集合中全0或者全1的優惠券ID去掉,然後使用訓練的模型對評估集合預測,將預測結果和實際標籤作異或取反(相同為1,不同為0),然後算出每個優惠券ID的AUC,最後將每個ID的優惠券AUC取均值就得到最終的AUC。

回顧

這一次比賽學習了很多,包括分散式平臺ODPS和機器學習平臺實現資料清洗,特徵提取,特徵選擇,分類建模、調參及模型融合等,學習摸索了一套方法,使自己建立了信心,明白還有很多需要學習的地方,之前一直對於演算法都是當做一個黑匣子,只會熟悉輸入輸出直接呼叫,要深入瞭解演算法,才能突破目前的瓶頸有所提高。
同時我覺得大家一起探討交流也很重要,一個人做著做著就容易走偏,純屬個人看法。

授人以魚不如授人以漁: