1. 程式人生 > >Yoshua Bengio團隊通過在網路「隱藏空間」中使用降噪器以提高深度神經網路的「魯棒性」...

Yoshua Bengio團隊通過在網路「隱藏空間」中使用降噪器以提高深度神經網路的「魯棒性」...

640?wx_fmt=jpeg&wxfrom=5&wx_lazy=1

原文來源:arXiv  

作者:Alex Lamb、Jonathan Binas、Anirudh Goyal、Dmitriy Serdyuk、Sandeep Subramanian、Ioannis Mitliagkas、Yoshua Bengio

「雷克世界」編譯:嗯~是阿童木呀、KABUDA、EVA

導語:深度神經網路在各種各樣的重要任務中取得了令人印象深刻的成果。但有一點,對不同於訓練分佈的資料進行評估時,表現並不是很好。最近,蒙特利爾演算法學習研究所提出了一種強化網路,它能夠有效提高現有深度神經網路的魯棒性。

眾所周知,深度網路已經在各種各樣的重要任務中取得了令人印象深刻的成果。然而,其一個已知的弱點是在對不同於訓練分佈的資料進行評估時,即使這些差異非常小,仍然表現不佳,比如對抗樣本。我們提出了強化網路(Fortified Networks),它是現有網路的一個簡單轉化,通過識別隱藏狀態在資料流形中斷開的時間,並將這些隱藏狀態映射回到網路執行良好的資料流的部分,加強了深度網路中的隱藏層。我們的主要貢獻是表明了強化這些隱藏狀態可以提高深度網路的魯棒性,我們的實驗:

•證明了在黑盒和白盒威脅模型中針對標準對抗攻擊的魯棒性有所提高。

•表明了我們的改進並非主要是由於梯度掩碼問題引起的。

•顯示了在隱藏層而不是輸入空間中進行這種強化的優點。

深度神經網路在各種各樣的任務中都非常成功。這一成功也推動了其在可靠性和安全性至關重要的領域中的應用,包括自動駕駛汽車(Bojarski等人於2016年提出)、醫療保健、人臉識別(Sharif等人於2017年提出)以及惡意軟體檢測(LeCun等人於2015提出)。當使用該系統的智慧體可以從系統的不佳表現中受益時,就會出現安全問題。當訓練期間所看到的輸入資料的分佈與進行評估模型的分佈不同時,就會出現可靠性問題。

對抗樣本(Adversarial examples)(Goodfellow等人於2014年提出)是一種攻擊神經網路模型的方法。這種攻擊對輸入應用了一個小的干擾,從而改變預測的類。值得注意的是,這個干擾有可能非常小,以至於肉眼不可見。研究表明,簡單的梯度方法可以讓人找到經常改變輸出類的輸入的修改(Szegedy等人於2013年提出; Goodfellow 等人於2014年提出)。最近,更多的研究表明,即使在相機上顯示時,建立一個補丁也是可能的,它也會以高度的置信度來改變輸出類(Brown等人於2017年提出)。

作為迴應,針對對抗樣本的防禦已經被研發出來。一些最突出的防禦類包括特徵壓縮(Xu等人於2017年提出)、輸入的自適應編碼(雅各布巴克曼,2018年)和與精煉相關的方法(Papernot等人於2015年提出)。現有的防禦系統提供了一定程度的魯棒性,但大多數都不容易部署。此外,很多已經被證明易受梯度掩碼的影響。還有其他一些則需要直接在可視的空間中訓練生成模型,即使在相對簡單的資料集上,這在當前仍然是很困難的。

我們的目標是提供一種方法:

•可以被廣泛地新增到現有網路中。

•使該網路具有魯棒性以抵禦對抗攻擊。

•提供一個可靠的訊號,表明輸入資料的存在,而這些資料並不位於網路所訓練的資料流上。

將生成模型的能力直接用於輸入資料以提高魯棒性並不新鮮。我們的主要貢獻是,在所學習的隱藏表徵的分佈上使用了這種魯棒化,而不是讓斷開資料流的識別變得更容易(如圖1所示)。

640?wx_fmt=png

圖1.輸入空間(頂部)和抽象隱藏空間(底部)中,自動編碼器動態示意圖。最左側的面板顯示來自三個不同類的資料點,中間面板顯示描述自動編碼器動態的向量場。最右側面板顯示一系列結果軌跡和吸引域。強化網路背後的主要動機是,在具有更簡單統計結構的抽象空間中,更容易識別出指向資料流形成的方向,從而更容易將對抗樣本映射回投影的資料流形。

我們提出了強化網路。這一強化包括使用去噪自動編碼器來“修飾”原始網路的隱藏層。我們在Pythonic的意義上使用“修飾”,它可以用於任何函式(在本例中是網路的一部分),並且在不大幅修改它的情況下擴充套件它的行為。因此,強化需符合上述三個目標。我們探討了隱藏層強化背後的直覺,並給出了該方法的一些顯著特性。我們在MNIST、Fashion-MNIST和CIFAR10資料集上,針對白盒和黑盒攻擊對我們所提出的方法進行了評估。

640?wx_fmt=png

圖2.一個映射回可視空間(左)和隱藏空間(右)的流形過程的示例。陰影區域表示空間中被給定類的資料點所佔據的區域(它們不表示決策邊界)

可以這樣說,防範對抗性樣本在關鍵任務應用程式中至關重要。我們提出了一種強化網路,它是一種能夠提高現有的深度神經網路魯棒性的簡單方法。我們的方法具有以下特點:

•實用性:強化現有網路需要在網路的隱藏層之間引入DAE,並且能夠實現自動化。我們正在準備一個PyTorch模組,它將真正做到這一點,並將在短期內釋出在深度學習社群,以供使用。此外,測試時的DAE重構誤差是分佈移位的可靠訊號,這與訓練期間遇到的情況有所不同。高誤差可能意味著對抗攻擊或顯著的域移位,這二者都是分析人員或系統需要注意的重要情況。

•有效性:我們展示的結果完善了MNIST對抗攻擊的最新技術水平,同時也改進了在CIFAR和Fashion-MNIST上進行執行的結果。

侷限性:該方法的成本是,由於搜尋對抗性樣本和訓練自動編碼器而延長了訓練時間。相比於對抗訓練,強化層本身的附加成本相對較低,並且比在輸入空間中訓練一個完整的生成式模型(如GAN)容易得多,也簡單得多。層強化通常涉及較小的DAE,所需計算量較小。此外,我們通過只增加兩個強化層,對Res Net做了一些改進,因此計算成本的變化非常小。同時,強化網路只有在與對抗訓練同時使用時才能提高魯棒性,這對於迭代攻擊而言,是非常昂貴的。

原文連結:https://arxiv.org/pdf/1804.02485.pdf

未來智慧實驗室是人工智慧學家與科學院相關機構聯合成立的人工智慧,網際網路和腦科學交叉研究機構。

未來智慧實驗室的主要工作包括:建立AI智慧系統智商評測體系,開展世界人工智慧智商評測;開展網際網路(城市)雲腦研究計劃,構建網際網路(城市)雲腦技術和企業圖譜,為提升企業,行業與城市的智慧水平服務。

  如果您對實驗室的研究感興趣,歡迎加入未來智慧實驗室線上平臺。掃描以下二維碼或點選本文左下角“閱讀原文”

640?wx_fmt=jpeg

相關推薦

oracle ORA-01654- ORA-01653: 表 Attachment 無法通過 1024 (在表空間 USERS ) 擴展

ora image virtual num max 技術 nbsp 32gb alter 1.查看表空間使用情況 SELECT T.TABLESPACE_NAME,D.FILE_NAME,D.AUTOEXTENSIBLE,D.BYTES,D.MAXBYTES,D.ST

ORA-01653: 表 xxxx 無法通過 8192 (在表空間 USERS ) 擴充套件

Oracle中增加表空間大小的四種方法 1:給表空間增加資料檔案 ALTER TABLESPACE app_data ADD DATAFILE ‘D:\ORACLE\PRODUCT\10.2.0\ORADATA\EDWTEST\APP03.DBF’ SIZ

ORA-00604: 遞迴 SQL 級別 1 出現錯誤 ORA-01653: 表 SYS.AUD$ 無法通過 8192 (在表空間 SYSTEM ) 擴充套件

toad連線oracle資料庫報錯 ORA-00604: 遞迴 SQL 級別 1 出現錯誤 ORA-01653: 表 SYS.AUD$ 無法通過 8192 (在表空間 SYSTEM 中) 擴充套件 ORA-02002: 寫入審計線索時出錯 ORA-00604: 遞迴 SQL

【火爐煉AI】深度學習003-構建並訓練深度神經網路模型

【火爐煉AI】深度學習003-構建並訓練深度神經網路模型 (本文所使用的Python庫和版本號: Python 3.6, Numpy 1.14, scikit-learn 0.19, matplotlib 2.2 ) 前面我們講解過單層神經網路模型,發現它結構簡單,難以解決一些實際的比較複雜的問題,故而現

#####好好好好####Keras深度神經網路訓練分類模型的四種方法

Github程式碼: Keras樣例解析 歡迎光臨我的部落格:https://gaussic.github.io/2017/03/03/imdb-sentiment-classification/ (轉載請註明出處:https://gaussic.github.io) Keras的官方E

估算深度神經網路的最優學習率

學習率如何影響訓練? 深度學習模型通常由隨機梯度下降演算法進行訓練。隨機梯度下降演算法有許多變形:例如 Adam、RMSProp、Adagrad 等等。這些演算法都需要你設定學習率。學習率決定了在一個小批量(mini-batch)中權重在梯度方向要移動多遠。 如果學習率很低,訓練會變得更

深度學習資料整理(深度神經網路理解)

https://blog.csdn.net/tiandijun/article/details/25192155   近這兩年裡deep learning技術在影象識別和跟蹤等方面有很大的突破,是一大研究熱點,裡面涉及的數學理論和應用技術很值得深入研究,這系列部落格總結了

深度神經網路的多工學習概覽(An Overview of Multi-task Learning in Deep Neural Networks)

譯自:http://sebastianruder.com/multi-task/ 1. 前言 在機器學習中,我們通常關心優化某一特定指標,不管這個指標是一個標準值,還是企業KPI。為了達到這個目標,我們訓練單一模型或多個模型集合來完成指定得任務。然後,我們通過精細調參,來改進模型直至效能不再

基於深度神經網路的說話人嵌入式端到端揚聲器驗證

DEEP NEURAL NETWORK-BASED SPEAKER EMBEDDINGS FOR END-TO-END SPEAKER VERIFICATION 基於深度神經網路的說話人嵌入式端到端揚聲器驗證   David Snyder *,Pegah Ghahremani,

一種利用語音深度神經網路進行語音識別的新方案

A NOVEL SCHEME FOR SPEAKER RECOGNITION USING A PHONETICALLY-AWARE DEEP NEURAL NETWORK Yun Lei Nicolas Scheffer Luciana Ferrer Mitchell McLaren 美國加

深度神經網路,適用於小型指令碼文字相關的語音驗證

DEEP NEURAL NETWORKS FOR SMALL FOOTPRINT TEXT-DEPENDENT SPEAKER VERIFICATION d-ivector系統優於i-ivector系統。 我們還嘗試了DNN培訓的不同配置。如果沒有maxo

【電腦科學】【2016】【含部分原始碼】深度神經網路及其實現

本文為捷克布拉格查理大學(作者:Bc. Ján Vojt)的碩士論文,共104頁。 深度神經網路是一種有效且通用的模型,能夠完成各種各樣的任務。本文主要研究了三種不同型別的深度神經網路——多層感知器、卷積神經網路和深度置信網路。所有討論的網路模型都是在並行硬體上實現的,並且針對網路

深度神經網路-keras-調參經驗

keras搬磚系列-調參經驗 1,觀察loss勝於觀察準確率,loss設計要比較合理,對比訓練集和驗證集的loss 2,relu可以很好的防止梯度彌散的問題,當然最後一層啟用函式儘量別用relu,如果分類則用softmax 3,BatchNorm 可以大大加快訓練速度和模型的

對基於深度神經網路的Auto Encoder用於異常檢測的一些思考

一、前言     現實中,大部分資料都是無標籤的,人和動物多數情況下都是通過無監督學習獲取概念,故而無監督學習擁有廣闊的業務場景。舉幾個場景:網路流量是正常流量還是攻擊流量、視訊中的人的行為是否正常、運維中伺服器狀態是否異常等等。有監督學習的做法是給樣本標出label,那麼標

基於深度神經網路的embeddding來構建推薦系統

在之前的部落格中,我主要介紹了embedding用於處理類別特徵的應用,其實,在學術界和工業界上,embedding的應用還有很多,比如在推薦系統中的應用。本篇部落格就介紹瞭如何利用embedding來構建一個圖書的推薦系統。 本文主要譯自《Building a Recommendation S

深度神經網路搭建馬賽克神器,高清無碼效果感人

目錄 專案背景 適用範圍 使用方法 專案背景 相信一提起馬賽克這個東西,不少小夥伴都痛心疾首,雖然最近幾年也頻繁傳出有在研發去除馬賽克的軟體,一直沒有成品問世。不過最近一位程式設計師及經過不斷努力終於完成了這款軟體。 據悉這位程式設計師“deeppomf

神經網路6_CNN(卷積神經網路)、RNN(迴圈神經網路)、DNN(深度神經網路)概念區分理解

 sklearn實戰-乳腺癌細胞資料探勘(部落格主親自錄製視訊教程,QQ:231469242) https://study.163.com/course/introduction.htm?courseId=1005269003&utm_campaign=commission&utm

深度神經網路優化論文總結

1、HanS, Mao H, Dally W J. Deep Compression: Compressing Deep NeuralNetworks with Pruning, Trained Quantization and Huffman Coding[J].Fiber, 2015,

深度神經網路

深度神經網路 摘要:深度學習是近年來計算機人工智慧領域非常火的研究方向,其相比傳統的淺層機器學習而言能夠挖掘出更多隱含的特徵。深度學習現如今已經廣泛的應用與計算機視覺、自然語言處理等領域,因此作為計算機專業人工智慧的學習者,學習和研究深度學習是一項必修課。   神經網路作為作為深度學