1. 程式人生 > >用於部分遷移學習的加權對抗網路 | CVPR 2018論文解讀

用於部分遷移學習的加權對抗網路 | CVPR 2018論文解讀

640?wxfrom=5&wx_lazy=1

在碎片化閱讀充斥眼球的時代,越來越少的人會去關注每篇論文背後的探索和思考。

在這個欄目裡,你會快速 get 每篇精選論文的亮點和痛點,時刻緊跟 AI 前沿成果。

點選本文底部的「閱讀原文」即刻加入社群,檢視更多最新論文推薦。

這是 PaperDaily 的第 60 篇文章

本期推薦的論文筆記來自 PaperWeekly 社群使用者 @jindongwang本文是伍倫貢大學(University of Wollongong)發表於 CVPR 2018 的工作,作者團隊將樣本權重應用於對抗 Partial Transfer 中。

如果你對本文工作感興趣,點選底部的閱讀原文即可檢視原論文。

關於作者:王晉東,中國科學院計算技術研究所博士生,研究方向為遷移學習和機器學習。

■ 論文 | Importance Weighted Adversarial Nets for Partial Domain Adaptation

■ 連結 | https://www.paperweekly.site/papers/1805

■ 作者 | Jing Zhang / Zewei Ding / Wanqing Li / Philip Ogunbona

背景

我們目前接觸過的絕大部分遷移學習問題情景都是:源域和目標域的特徵空間與類別空間一致,只是資料的分佈不一致,如何進行遷移。也就是說,源域和目標域要是幾類,都是幾類。

但是這種情況顯然具有很大的限制性:在真實應用中,我們往往不知道目標域的類別,更無法獲知它是否和源域的類別完全一樣。這就極大地限制了它的應用。

遷移學習的目標就是利用大量有標註的源域資料來對目標域資料進行建模。如果我們假設已有的源域資料很豐富,它本身就包含了目標域的類別,那麼問題會不會看起來更具一般性?

形式化來講,我們用 YsYt 分別表示源域和目標域的類別空間,那麼部分遷移學習就是 ⊃ Yt。這種情況比通常意義下的遷移學習更有挑戰性。

論文動機

作者的 motivation 很直觀:如果在源域類別比目標域多的情況下無法直接進行遷移,那我們就先選擇出源域中與目標域那部分類別最接近的樣本,給它們賦予高權重,然後再進行遷移。 

基於這個想法,作者設計了一個兩階段的深度對抗網路。我們都知道對抗網路主要由特徵提取器(feature extractor)和領域分類器(domain classifier)組成。特徵提取器用於進取樣本的公共特徵,領域分類器用於判別兩個領域是否相似。

已有工作通常會對源域和目標域採用一個公共的特徵提取器。但是在部分遷移學習中,源域和目標域的類別往往不同,因此作者提出對它們分別採用不同的特徵提取器進行。這樣做還有一個好處就是,不同的特徵提取器可以針對各自的 domain 學習到各自的表徵性特徵。 

在學習時,固定源域的特徵提取器不變,只學習目標域的特徵,這更符合原始 GAN 的理論。

方法

作者提出了一個深度加權對抗網路(Importance Weighted Adversarial Nets)。這個網路的示意圖如下圖所示。

640

網路的主要部分為:分別作用於源域和目標域的兩個特徵提取器(分別叫做 FsFt),以及兩個領域分類器(分別叫做 DD0)。

第一個領域分類器用來篩選出源域中與目標域相似的那部分樣本(或者源域中與目標領域共享的那部分類別),第二個領域分類器進行正常的 Domain Adaptation。

640

相應地,方法主要分為兩個部分:1)篩選出源域中與目標域屬於相同類別的樣本,2)綜合學習。

樣本篩選

此部分是該論文的核心創新點。主要思路是,由 FsFt 產生的源域和目標域特徵 ZsZt,通過一個領域分類器 D,判別樣本是來自於源域還是目標域。

這個 D 是一個二類分類器,如果 D=1,表示樣本來自源域;否則,樣本則來自目標域。那麼,如何才能知道樣本是否屬於源域和目標域的公共類別,而不是特異於源域的類別(作者叫它們 outlier)?

如果 D(z)≈1,那麼就表示 z 這個樣本是來自於源域。更進一步分析,為什麼這部分樣本只是來自源域?那是因為這部分樣本是源域獨有的。否則的話,它就同樣來自目標域了。

從另一個角度說,如果 D(z)≈0,則表示這部分樣本來自目標域。同時,也表示它可能來自源域中與目標領域共享的類別。因為兩部分的類別是共享的。

這個簡單而直觀的道理指導著我們設計不同的權重。我們的目標是,對於篩選出的那部分與目標域屬於相同類別的源域樣本,給它們賦予大權重;另一部分源域特有的樣本,權重調小。該權重可以被表示為:

640

這裡的 D⋆(z) 表示的是領域分類器 D 的最優值,它可以通過求導得出:

640

從這個式子可以看出,如果 D⋆(z值較大,則表示樣本更可能是 outlier,那麼權重值就會變小;反之,如果 D⋆(z值較小,則表示樣本更可能是源域和目標域共同部分,那麼權重值就會變大。這個方法很好地對源域和目標域中的共同類別的樣本完成了篩選工作。

作者還對源域部分的權重進行了歸一化,以更加明確樣本的從屬關係。加入權重以後,優化目標變成了:

640

下一步工作是處理領域分類器 D0D0 也可以以同樣的求導方式得到。

綜合學習

綜合學習之前,作者還加了一個熵最小化項用於對目標域的樣本屬性進行約束,這也是比較常見的做法。熵最小化可以被表示為:

640

其中的 H(⋅) 就是熵的表達形式。C(⋅) 是分類器。現在,總的學習目標就是:

640

實驗

部分遷移學習實驗主要在傳統的 Office-Caltech 以及 Office-31 上做。不過實驗任務與之前的遷移學習有所不同:源域的類別比目標域多。

作者和一些最新的遷移學習方法進行了對比,表明了所提方法的優勢。

作者還特別做了一個實驗:當目標域的類別個數逐漸變多時,精度如何變化?結論是,隨著目標域類別個數的減少,精度逐漸增加。這表明知識在進行遷移時,源域知識越多,通過篩選,對目標越有效。

具體實驗設定、結果、以及其他的視覺化結果可以參照原文。

總結

本文核心創新點是,從任務出發,直觀地構造出兩階段式對抗網路,對源域中與目標域共享的類別樣本進行有效篩選

另一個與已有工作不同的地方是,作者分別對源域和目標域採用了不同的特徵提取器。其實這一點與作者發表在 CVPR-17 的 JGSA [1] 方法很像。可以參考學習。

參考文獻

[1] Zhang J, Li W, Ogunbona P. Joint geometrical and statistical alignment for visual domain adaptation[J]. arXiv preprint arXiv:1705.05498, 2017.

[2] 與本文相關的另一篇部分遷移學習工作:

https://zhuanlan.zhihu.com/p/32161502

本文由 AI 學術社群 PaperWeekly 精選推薦,社群目前已覆蓋自然語言處理、計算機視覺、人工智慧、機器學習、資料探勘和資訊檢索等研究方向,點選「閱讀原文」即刻加入社群!

640?

點選標題檢視更多論文解讀: 

640?

640?#作 者 招 募#

我是彩蛋

解鎖新功能:熱門職位推薦!

PaperWeekly小程序升級啦

今日arXiv√猜你喜歡√熱門職位

找全職找實習都不是問題

 解鎖方式 

1. 識別下方二維碼開啟小程式

2. 用PaperWeekly社群賬號進行登陸

3. 登陸後即可解鎖所有功能

 職位釋出 

請新增小助手微信(pwbot02)進行諮詢

長按識別二維碼,使用小程式

*點選閱讀原文即可註冊

640?


關於PaperWeekly

PaperWeekly 是一個推薦、解讀、討論、報道人工智慧前沿論文成果的學術平臺。如果你研究或從事 AI 領域,歡迎在公眾號後臺點選「交流群」,小助手將把你帶入 PaperWeekly 的交流群裡。

640?

▽ 點選 | 閱讀原文 | 檢視原論文

相關推薦

CVPR 2018 論文解讀部分

CVPR 2018還有3個月就開始了,目前已經公佈了所有收錄論文名單,為了能夠讓大家更深刻了解C

Partial Transfer Learning 使用選擇性對抗網路部分遷移學習

論文地址: http://openaccess.thecvf.com/content_cvpr_2018/papers/Cao_Partial_Transfer_Learning_CVPR_2018_paper.pdf 簡介 何為部分遷移學習呢,部分遷移的應用場景又是什麼呢?----

Importance Weighted Adversarial Nets for Partial Domain Adaptation 使用加權對抗網路實現部分域適應

論文地址:https://arxiv.org/pdf/1803.09210。 簡介 這篇文章介紹了一種深度域適應方法,構造了兩個網路以及兩個判別器,兩個網路作用是分別提取源域和目標域的,然後一個判別器用於獲取源域樣本的重要性權重,第二個分類器使用經過加權的源域樣本特徵和目標域資料進行

【轉】CVPR 2017論文解讀用於單目影象車輛3D檢測的多工網路

轉自:https://baijiahao.baidu.com/s?id=1573792022850309&wfr=spider&for=pc 昨日,CVPR 2017獲獎論文公佈,引起了業內極大的關注。但除了這些獲獎論文,還有眾多精彩的論文值得一讀。因此在

原始碼分析——遷移學習Inception V3網路重訓練實現圖片分類

1. 前言 近些年來,隨著以卷積神經網路(CNN)為代表的深度學習在影象識別領域的突破,越來越多的影象識別演算法不斷湧現。在去年,我們初步成功嘗試了影象識別在測試領域的應用:將網站樣式錯亂問題、無線領域機型適配問題轉換為“特定場景下的正常圖片和異常圖片的二分類問題”,並藉助Goolge開源的Inception

CVPR 2017論文解讀:特徵金字塔網路FPN

這裡介紹的文章是來自 Facebook 的特徵金字塔網路 Feature Pyramid Networks(FPN)。FPN 主要解決的是物體檢測中的多尺度問題,通過簡單的網路連線改變,在基本不增加原有模型計算量情況下,大幅度提升了小物體檢測的效能。我們將從論文背景,論

CVPR 2019 論文解讀 | 小樣本域適應的目標檢測

引文 ​ 最近筆者也在尋找目標檢測的其他方向,一般可以繼續挖掘的方向是從目標檢測的資料入手,困難樣本的目標檢測,如檢測物體被遮擋,極小人臉檢測,亦或者資料樣本不足的演算法。這裡筆者介紹一篇小樣本(few-shot)資料方向下的域適應(Domain Adaptation)的目標檢測演算法,這篇新加坡國立大學

機器學習與深度學習系列連載: 第二部分 深度學習(十六)迴圈神經網路 4(BiDirectional RNN, Highway network, Grid-LSTM)

深度學習(十六)迴圈神經網路 4(BiDirectional RNN, Highway network, Grid-LSTM) RNN處理時間序列資料的時候,不僅可以正序,也可以正序+逆序(雙向)。下面顯示的RNN模型,不僅僅是simple RNN,可以是LSTM,或者GRU 1 B

機器學習與深度學習系列連載: 第二部分 深度學習(十五)迴圈神經網路 3(Gated RNN - GRU)

迴圈神經網路 3(Gated RNN - GRU) LSTM 是1997年就提出來的模型,為了簡化LSTM的複雜度,在2014年 Cho et al. 提出了 Gated Recurrent Units (GRU)。接下來,我們在LSTM的基礎上,介紹一下GRU。 主要思路是: •

機器學習與深度學習系列連載: 第二部分 深度學習(十四)迴圈神經網路 2(Gated RNN - LSTM )

迴圈神經網路 2(Gated RNN - LSTM ) simple RNN 具有梯度消失或者梯度爆炸的特點,所以,在實際應用中,帶有門限的RNN模型變種(Gated RNN)起著至關重要的作用,下面我們來進行介紹: LSTM (Long Short-term Memory )

機器學習與深度學習系列連載: 第二部分 深度學習(十三)迴圈神經網路 1(Recurre Neural Network 基本概念 )

迴圈神經網路 1(Recurre Neural Network 基本概念 ) 迴圈神經網路的特點: • RNNs 在每個時間點連線引數值,引數只有一份 • 神經網路出了輸入以外,還會建立在以前的“記憶”的基礎上 • 記憶體的要求與輸入的規模有關 當然,他的深度不只有一層:

機器學習與深度學習系列連載: 第二部分 深度學習(十二)卷積神經網路 3 經典的模型(LeNet-5,AlexNet ,VGGNet,GoogLeNet,ResNet)

卷積神經網路 3 經典的模型 經典的卷積神經網路模型是我們學習CNN的利器,不光是學習原理、架構、而且經典模型的超引數、引數,都是我們做遷移學習最好的源材料之一。 1. LeNet-5 [LeCun et al., 1998] 我們還是從CNN之父,LeCun大神在98年提出的模

機器學習與深度學習系列連載: 第二部分 深度學習(十一)卷積神經網路 2 Why CNN for Image?

卷積神經網路 2 Why CNN 為什麼處理圖片要用CNN? 原因是: 一個神經元無法看到整張圖片 能夠聯絡到小的區域,並且引數更少 圖片壓縮畫素不改變圖片內容 1. CNN 的特點 卷積: 一些卷積核遠遠小於圖片大小; 同樣的pat

機器學習與深度學習系列連載: 第二部分 深度學習(十)卷積神經網路 1 Convolutional Neural Networks

卷積神經網路 Convolutional Neural Networks 卷積神經網路其實早在80年代,就被神經網路泰斗Lecun 提出[LeNet-5, LeCun 1980],但是由於當時的資料量、計算力等問題,沒有得到廣泛使用。 卷積神經網路的靈感來自50年代的諾貝爾生物學獎

生成對抗網路學習(GAN)學習筆記

文章目錄 2018-11-16 GAN的原理 2018-11-15 Multimodal Unsupervised Image-to-Image Translation 2018-11-13 Image-to-

在瀏覽器中進行深度學習:TensorFlow.js (八)生成對抗網路 (GAN

Generative Adversarial Network 是深度學習中非常有趣的一種方法。GAN最早源自Ian Goodfellow的這篇論文。LeCun對GAN給出了極高的評價: “There are many interesting recent development in deep learni

遷移學習小記(一)僅用於學習記錄

  萬事開頭難,剛接觸遷移學習,網上的資料水平又良莠不齊,在一時間沒能找到合適的學習資料,幸得老師為我們尋找了最新的也非常齊全的相關資料,讓我感到柳暗花明又一村。本應該動手實踐,但由於基本概念還未掌握,我選擇了先“紙上談兵”。以下記錄我本段時間的學習所得。   一.什麼是遷

續(利用tensorflow實現簡單的卷積神經網路-對程式碼中相關函式介紹)——遷移學習小記(三)

  上篇文章對cnn進行了一些介紹,附了完整小例子程式碼,介紹了一部分函式概念,但是對我這樣的新手來說,程式碼中涉及的部分函式還是無法一下子全部理解。於是在本文中將對程式碼中使用的函式繼續進行一一介紹。 具體程式碼見上一篇(二) 一、 #定義輸入的placehoder,x是特徵

利用tensorflow實現簡單的卷積神經網路——遷移學習小記(二)

一、什麼是神經網路(CNN)     卷積神經網路(Convolutional Neural Network,簡稱CNN),是一種前饋神經網路,人工神經元可以影響周圍單元,可以進行大型影象處理。卷積神經網路包括卷積層和池化層。卷積神經網路是受到生物思考方式的啟發的MLPs(多