1. 程式人生 > >【文獻閱讀】Stacked What-Where Auto-encoders -ICLR-2016

【文獻閱讀】Stacked What-Where Auto-encoders -ICLR-2016

一、Abstract

提出一種新的autoencoder —- SWWAE(stacked what-where auto-encoders),更準確的說是一種 convolutional autoencoder,因為在CNN中的pooling處才有 “what-where。SWWAE呢,是一種整合了supervised,semi-supervised and unsupervised learning 的model(暫時不理解這是什麼意思,感覺好厲害的樣子## 標題 ##,先記著)。what-where最根本的作用是在decode中uppooling時,把value放到指定位置(encode時對應的pool層所記錄的位置,即where),看圖吧,一圖勝千言
這裡寫圖片描述


第一幅圖說明了pooling 和unpooling的一一對應關係,以及what-where
這裡寫圖片描述
第二幅圖就是整個SWWAE的示意圖
新增what-where的好處就是

SWWAE適用於 大量無標籤資料+小量標籤資料的情況

二、Key words:

SWWAE; reconstruction;encoder;decoder

三、Motivation

1.想整合平衡(leverage)labeled and unlabeled data 來學習更好的feature(representation)

四、main contributions

1.提供了一種可以 unified supervised,semi-supervised and unsupervised learning的model
2.提供一個當無標籤樣本多,有標籤樣本少時的一種訓練模型(1 )
3.unsupervised learning 會學習一些 trivial representation ,加入 supervised loss 可以避免(3.2)

五、inspired by

  1. Yann LeCun, L ́ eon Bottou, Yoshua Bengio, and Patrick Haffner. Gradient-based learning applied to document recognition. Proceedings of the IEEE, 86(11):2278–2324, 1998.
  2. Matthew D Zeiler, Dilip Krishnan, Graham W Taylor, and Robert Fergus. Deconvolutional networks. In Computer Vision and Pattern Recognition (CVPR), 2010 IEEE Conference on, pp. 2528–2535. IEEE, 2010.
  3. Tom Le Paine, Pooya Khorrami, Wei Han, and Thomas S Huang. An analysis of unsupervised pre-training in light of recent advances. arXiv preprint arXiv:1412.6597, 2014.
    key word:CNN; Deconvolutional network;regularization effect !

六、文獻具體實驗及結果

4.1 對比 upsampling(what but no where) andunpooling(what-where),實驗證明 在 reconstruction過程中,“where”是很重要的七、 自己的感悟
4.2 實驗沒看明白,搞不懂 invariance and equivariance是什麼鬼,留著以後看
4.3提高分類效能,說提高了MNIST,SVHN的分類效能

七、 自己的感悟

  1. loss function = classification loss + reconstructions loss + middle reconstruction loss
    總共三部分loss,第一部分loss就是我們平時supervised learning中常見的。而後面兩個reconstruction loss 其實就是重構誤差,即decode 與 code 之間的誤差,這兩部分loss相當於一個regularizer,對encoder階段中的weights做了regularization,迫使weights可以使得提出的特徵能通過decoder還原成原訊號(圖片)

  2. 針對reconstruction 可以看作一個 regularizer,
    2010年 Erhan就提到,但是證明不足以讓人信服;
    2014年 Paine分析regularization effect,可以追一追,看看是什麼結構(e.g deconvnet?)提供了一個loss,這個loss對weights的更新起到某種限制,從而使得提取出的feature更好,這個可以作為一個研究方向

  3. 按道理作者提出 where,應該開門見山就說 有了where的模型會怎麼怎麼樣才對啊,但是從頭一直找啊找,直到實驗4.1,丟出圖,給出結論,where 對reconstruction很重要,會更清晰。。。這種做法感覺怪怪的

  4. 可以追的paper 2014 Paine分析 regularization effect ;
    deconvnet 及其 loss 方面,Matthew D Zeiler 大神的系列文章,一開始認識他是2013反捲積 Iamgenet2013冠軍!

相關推薦

文獻閱讀Stacked What-Where Auto-encoders -ICLR-2016

一、Abstract 提出一種新的autoencoder —- SWWAE(stacked what-where auto-encoders),更準確的說是一種 convolutional autoencoder,因為在CNN中的pooling處才有 “wha

文獻閱讀玻利維亞Andes地區冰湖潰決影響建模(Ioannis Kougkoulos等人,2018.09,Natural Hazards)

一、獻情況介紹 這篇文章2018年3月投稿,9月正式接收,發表在期刊Natural Hazards上。冰湖潰決(GLOF)往往會對下游地區帶來巨大破壞,文章針對冰湖潰決的風險進行建模,量化其對下游地區的影響。 Natural Hazards為SCI期刊,17-18年的影響因子為1.9,所屬領

文獻閱讀受山體陰影影響的冰湖製圖方法研究(Li JunLi等人,2018.09,IJRS)

一、文獻情況介紹 博主一直在做冰湖提取方面的相關研究,偶然看到這篇文獻,覺得還不錯,特此寫一篇文章記錄並解讀該文獻。 這篇文獻是2018年9月發表在IJRS上的一篇文章,文章針對受山體陰影影像的冰湖物件,提出了相應的提取演算法。 International journal of remo

文獻閱讀Fashion-MNIST: a Novel Image Dataset for Benchmarking Machine Learning Algorithms

https://blog.csdn.net/u011995719/article/details/77834375         命名技巧:        

博士文獻閱讀2018-10-5

今天老師發來兩篇文章: 《改進分水嶺演算法在成像測井圖礫石識別中的應用》 《複雜地層情況下全井周電成像影象修復方法》 ----------------------------------------------------------------------------

文章閱讀超解像--Image Restoration Using Convolutional Auto-encoders with Symmetric Skip Connections

【文章閱讀】【超解像】–Image Restoration Using Convolutional Auto-encoders with Symmetric Skip Connections RED-Net:Residual Encoder-Decoder Networks 論文連結

前端閱讀——《活用PHP、MySQL建構Web世界》摘記之設計技巧

簡化 return 下載 center src rto 響應 server pty 二、設計技巧 Programming的習慣因人而異,這裏只提供一些經驗,可以參考。 1、利用Include模塊化你的程序代碼 Include函數基本上說:就像是把另一個文件(HTM

文章閱讀短鏈接服務系統開發

結果 border als 十進制 實現 小寫 .com 性能 play 一、短鏈接服務系統開發 https://www.javadoop.com/post/url-shortener?hmsr=toutiao.io&utm_medium=toutiao.io

論文閱讀Siamese Neural Networks for One-shot Image Recognition

 關鍵詞:      one-short learning :  待解決的問題只有少量的標註資料,先驗知識很匱乏,遷移學習就屬於one-short learning的一種 zero-short learning: 這個種情況下完全沒有

論文閱讀The Ubuntu Dialogue Corpus

論文題目: The Ubuntu Dialogue Corpus: A Large Dataset for Research in Unstructured Multi-Turn Dialogue Systems 語料庫: a. train.csv和論文所述一致。 1,000,000

論文閱讀Sequence to Sequence Learning with Neural Networks

看論文時查的知識點 前饋神經網路就是一層的節點只有前面一層作為輸入,並輸出到後面一層,自身之間、與其它層之間都沒有聯絡,由於資料是一層層向前傳播的,因此稱為前饋網路。 BP網路是最常見的一種前饋網路,BP體現在運作機制上,資料輸入後,一層層向前傳播,然後計算損失函式,得到損失函式的殘差

論文閱讀韓鬆《Efficient Methods And Hardware For Deep Learning》節選《Learning both Weights and Connections 》

Pruning Deep Neural Networks 本節內容主要來自NIPS 2015論文《Learning both Weights and Connections for Efficient Neural Networks》。 這部分主要介紹如何剪枝網路

論文閱讀Arbitrary Style Transfer in Real-time with Adaptive Instance Normalization

簡述 看這篇論文,並實現一下這個。(如果有能力實現的話) 實時任意風格轉換(用自適應Instance Normalization) instanceNorm = batchsize=1 的 batchNorm 1 Abstract Gatys et al

論文閱讀Clustering Convolutional Kernels to Compress Deep Neural Networks

文章:Clustering Convolutional Kernels to Compress Deep Neural Networks 連結:http://openaccess.thecvf.com/content_ECCV_2018/papers/Sanghyun_Son_Clustering_Kern

論文閱讀Between-class Learning for Image Classification

文章:Between-class Learning for Image Classification 連結:https://arxiv.org/pdf/1711.10284.pdf CVPR2018 作者嘗試了將在音訊上的方法用在影象上的,並提出了一種將影象作為波形處理的混合方法(作者認為圖形波長融

論文閱讀Deep Adversarial Subspace Clustering

導讀:   本文為CVPR2018論文《Deep Adversarial Subspace Clustering》的閱讀總結。目的是做聚類,方法是DASC=DSC(Deep Subspace Clustering)+GAN(Generative Adversarial Networks)。本文從以下四個方面來

論文閱讀:Embedding-based News Recommendation for Millions of Users

非常實用性的一個推薦新聞的模型 摘要: 新聞推薦非常重要,但是傳統的基於使用者id的協同過濾和低秩分解推薦演算法不完全適用於新聞推薦,因為新聞類文章過期的太快了 基於單詞的方法效能不錯,但是有處理同義詞和定義使用者需求的問題 因此本文提出一種基於嵌入式的演算法,基於一種去噪自編碼器的

論文閱讀Deep Mixture of Diverse Experts for Large-Scale Visual Recognition

導讀:   本文為論文《Deep Mixture of Diverse Experts for Large-Scale Visual Recognition》的閱讀總結。目的是做大規模影象分類(>1000類),方法是混合多個小深度網路實現更多類的分類。本文從以下五個方面來對論文做個簡要整理:   背

論文閱讀Learning Dual Convolutional Neural Networks for Low-Level Vision

論文閱讀(【CVPR2018】Jinshan Pan - Learning Dual Convolutional Neural Networks for Low-Level Vision)      本文針對低層視覺問題,提出了一般性的用於解決低層視覺問題的對偶卷積神經網路。作者認為,低層視覺問題,如常見的有