1. 程式人生 > >Visual Tracking with Online Multiple Instance Learning讀書筆記

Visual Tracking with Online Multiple Instance Learning讀書筆記

MIL是一篇關於tracking中基於tracking-by-detection框架的文章,而且關注的是好的正樣本的問題。當然之前那篇裡面的struck也是關注這個問題。作者首先發現,利用當前幀的state獲得的正負樣本很容易混淆分類器本身。因為tracker本身稍微的誤差可能將訓練樣本的label標錯,那麼訓練出來的分類器也就不好了,於是對下一幀的預測很可能出問題。於是我們還是得獲得好的正負樣本來update appearance model啊。

我感覺作者提出multi-instance learning 來解決這個問題,說白了就是三個臭皮匠頂個諸葛亮的思想。也就是說,作者想由於無法保證每次的正樣本是最好的,而如果擴充正樣本的話,又會搞得分類器自己迷惑,那麼幹脆多找些臭皮匠樣本得了。這些樣本構成一個集合,給他們賦一個標籤。當這個集合裡面的樣本存在一個正樣本或以上這個標籤就是正的,否則為負。如下所示:

左邊是採用單個正樣本update model,中間是採用多個正樣本update model,右邊是將正樣本構造一個集合,整個集合看做是正樣本。

模型的框架如下所示:

下面說說multiple instance learning(MIL).

在傳統的判別式學習演算法中,我們訓練分類器的話,需要正負樣本的集合,在這裡就是從一個影象patch提取的特徵。而在MIL中,形式如下:,其中X是樣本的集合,bag。如果這裡面至少有一個樣本位置,那麼bag就是看做正的。我們要做的就是訓練一個instance classifer來估計出label.對於bag而言,就是。這個公式的好處就是當bag中某一個instance有很高的probability的時候,那麼相應地這個bag也具有很高的probobility。

講完了MIL,作者又引入了一個概念叫:Online boosting.Boosting的思想,應該是弱弱聯合,構造一個強分類器,其中組合係數可學:

最流行的演算法來求解這個係數的當屬adboost.

有了這兩個概念之後:

Online Multiple Instance Boosting就出來了,作者首先構造一個目標函式:

Hk-1是有前(k-1)個弱分類器組成的強分類器,在本文中作者對instance probability建模成:

,首先我們需要訓練弱分類器,而弱分類器需要label,於是我們把bag的label給裡面的每一個instance,然後選擇K個如分類,挑選標準就是:


演算法的虛擬碼如下: