1. 程式人生 > >Multi-Instance Learning 和 Latent SVM

Multi-Instance Learning 和 Latent SVM

 MIL和weakly supervised learning有扯不清的關係(有點蝦和蛋的關係)。
Pedro的Latent SVM算是MILSVM的一個變種,相當於在MIL上加上技巧就可以實現Latent SVM,既然是技巧,就是沒有大的理論突破。
那仔細看下它們的公式
1. basic linear SVM

這是個convex-problem,可以用lagrangian function來表述,PRML ch7中有講,不贅述。

2.MIL SVM

約束條件發生了變化,從多個候選正樣本集(不一定都是正樣本)中自動找到最像正樣本(max)的樣本進行訓練,從負樣本集中找離分介面最近的樣本作為訓練負樣本。因此可以認為MIL以最大化樣本集間隔作為優化目標,這就是一個迭代優化問題。詳見論文吧,也不贅述。

3.Latent SVM
看看pedro自己怎麼說的吧: “To train models using partially labeled data we use a  latent variable formulation of MI-SVM [3] that we call  latent SVM (LSVM).   ”
人家自己都這麼說了,咱也不說啥了,直接上公式吧


這是一個semi-convexity problem,可以用coordinate descent來求解該問題



   
    
     initial Beta
    
    
      
    
    
     step1Relabel postive example
    
    
      
    
    
     step2Optimize beta
    
    
      
    
    
     upto convergence

詳細看pedro PRMI上的論文吧,這裡不贅述。


三者的區別從公式角度簡潔的列一下,感覺MIL和weakly supervised learning是個大坑,可以乘不少水。再列點資源吧:

(1) MIL的論文參考: S. Andrews, I. Tsochantaridis, and T. Hofmann, “Support vector machines for multiple-instance learning,” in  Advances in NeuralInformation Processing Systems, 2003. 作者主頁上有文章和實驗資料下載
(2) MIL工具包 MILL: A Multi-Instance Learning Library http://www.cs.cmu.edu/~juny/MILL/