1. 程式人生 > >論文翻譯:Learning Graphical Model Parameters with Ap-proximate Marginal Inference

論文翻譯:Learning Graphical Model Parameters with Ap-proximate Marginal Inference

Abstract

      基於似然的圖形模型學習面臨著計算複雜度和模型錯誤描述魯棒性的限制。本文研究了直接擬合引數以最大限度地提高測量精度的方法預測的邊緣,考慮到訓練時間模型和推理方法。對成像問題的實驗表明,基於邊際化的學習在基於近似性的困難問題上比基於可能性的近似方法更好。
索引術語:圖形模型,條件隨機場,機器學習,推理,分割。

1. Introduction

      圖形模型是影象處理,計算機視覺等許多領域的標準工具。由於圖的高度寬,精確的推理和推理通常是棘手的。
      以前的許多工作都涉及到可能性的近似值(第4節)。在本文中,我們建議引數學習可以用“基於邊際化”的損失函式來完成。這些直接量化給定的邊際推理演算法的預測質量。這有兩個主要的優點。首先,在學習時考慮推理演算法中的近似誤差。其次,這對模型錯誤規範是強大的。
      本文的貢獻首先是基於邊際化擬合的一般框架為隱性分化。其次,我們證明了引數梯度可以通過“攝動”來計算,也就是說,根據當前的損失,通過重新執行近似演算法兩次,使引數稍微擾動。 第三,介紹“截斷擬合”的策略。 推理演算法基於優化,其中迭代更新直到達到某個收斂閾值。在截斷擬閤中,演算法被匯出來擬合在固定次數的更新之後產生的邊際,而沒有收斂的假設。我們證明這導致顯著的加速。我們也推匯出一個可以應用於基於可能性學習的變體。最後,實驗結果證實,基於邊際化的學習在困難的問題上給出了更好的結果,其中推理近似和模型誤差最為顯著

9. Conclusion

      在高樹寬度設定下訓練圖形模型的引數涉及多個挑戰。在本文中,我們著重於三個:模型錯誤規範,近似推理的必要性和計算複雜性。
      本文的主要技術貢獻是基於給定的近似推理演算法預測的邊緣的幾種訓練方法。這些方法考慮了模型錯誤規定和推理近似。為了克服計算複雜性,我們引入“截斷”學習,其中推理演算法只需要執行固定次數的迭代。截斷也可以在一定程度上啟發式地應用於替代的可能性。
      在以前的方法中,我們通過實驗發現代理似然性超越偽可能性或分段學習。通過更仔細地反映漢明損失的測試標準,基於邊際的損失函式表現得更好,特別是在較難解決的問題上(儘管代理可能性通常表現出較小的訓練/測試差距)。另外,基於邊際的損失函式更適合於截斷,因為替代可能性在迭代過少的情況下發生分歧。