1. 程式人生 > >【286頁乾貨】一天搞懂深度學習

【286頁乾貨】一天搞懂深度學習

640?wx_fmt=gif&wxfrom=5&wx_lazy=1

作者:慢慢的燃燒

來源:http://blog.csdn.net/u010164190/article/details/72633245

《1天搞懂深度學習》,快300頁的ppt,臺灣李巨集毅教授寫的,非常棒。不誇張地說,是我看過最系統,也最通俗易懂的,關於深度學習的文章。

廢話少說,先上乾貨,整個PPT的思維導圖如下:

640?wx_fmt=png&wxfrom=5&wx_lazy=1

深度學習概論

介紹深度學習

作者非常淺顯的指出機器(深度)學習過程非常簡單,分為定義方法、判斷方法的優劣、挑選出最佳的方法。

640?wx_fmt=png

對於深度學習,首先第一步定義方法 - 神經網路。深度學習顧名思義是指多層的神經網路。

神經網路的思想來源於對於人腦的生理上的研究,人腦由數億個神經元組成,神經元通過軸突互相連線通訊。神經網路和人腦類似,存在多個層級(layer),每個層級都有多個節點(神經元),層級和層級之間相互連線(軸突),最終輸出結果。

對於神經網路的計算能力可以理解為通過一層層Layer的計算歸納,逐步的將抽象的原始資料變的具體。以圖片識別為例,輸入是一個個畫素點,經過每層神經網路,逐步變化成為線、面、物件的概念,然後機器有能力能夠識別出來。

640?wx_fmt=png

第二步,評估方法的優劣。

Loss function是用於評估方法優劣,通常我們用學習出來的引數對測試資料進行計算,得出對應的預測(y)然後和真實的測試資料的目標值(t)進行比對,y和t之間的差距往往就是Loss。那麼評估一個演算法的好壞,就是要儘可能的降低Loss。

640?wx_fmt=png

第三步,如何獲得最佳的學習方法

獲得最佳的學習是採用梯度下降演算法,作者也提到梯度下降演算法存在區域性最優解的問題。人們往往認為機器無所不能,實際上更像是在一個地圖上面拓荒,對周邊一無所知。神經網路計算梯度的演算法是反向傳播演算法,簡稱BP。

640?wx_fmt=png

Why Deep?

作者首先指出越多的引數往往帶來越好的預測能力,所以神經網路往往引數越多越好。那麼如果是同樣的引數情況下,為什麼層級較多的表現會更好呢?

640?wx_fmt=png

作者認為深度網路可以帶來模組化的好處,隨著網路的層級,神經網路會將畫素元素逐漸歸納出一些基本的特徵,進而變成紋理,進而變成物件。

640?wx_fmt=png

訓練方法

640?wx_fmt=png

作者總結下來訓練過程中會發現了兩種情況:

1. 沒有辦法得到很好的訓練結果 ---》 重新選擇訓練方式

2. 沒有辦法得到很好的測試結果 ---》 往往由於過度擬合導致,需要重新定義方法

640?wx_fmt=png

優化訓練方法的手段:

1. 選擇合適的Loss function:使用Cross Entropy效果要優於Mean Square Error

2. Mini-batch: 每次訓練使用少量資料而不是全量資料效率更高

3. Activation Function:使用ReLU替代Sigmoid可以解決梯度消失的問題,可以訓練更深的神經網路

4. Adaptive Learning Rate:可以隨著迭代不斷自我調整,提高學習效率

5. Momentum: 可以一定程度上避免陷入區域性最低點的問題

640?wx_fmt=png

避免過度擬合(overfitting)的方法:

1. Early Stopping:使用cross validation的方式,不斷對validation data進行檢驗,一旦發現預測精度下降則停止。

2. Weight Decay:引數正則化的一種方式?

3. Dropout:通過隨機去掉一些節點的連線達到改變網路形式,所以會產生出多種網路形態,然後彙集得到一個最佳結果

4. Network Structure: 例如CNN等其他形態的網路

神經網路變體

Convolutional Neural Network (CNN)

640?wx_fmt=png

通常情況下,一個CNN包含多次的卷積、池化,然後Flatten,最終再通過一個深度神經網路進行學習預測。CNN在影象、語音識別取得非常好的成績,核心的想法在於一些物體的特徵往往可以提取出來,並且可能出現在圖片的任何位置,而且通過卷積、池化可以大大減少輸入資料,加快訓練效率。

Recurrent Neural Network (RNN)

640?wx_fmt=png

RNN的想法是可以將hidden layer的資料儲存下來,然後作為輸入給下一個網路學習。這種網路的想法可以解決自然語言中前後詞語是存在關聯性的,所以RNN可以把這些關聯性放到網路中進行學習。

其他前沿技術

Ultra Deep Network:2015年出現了152層的Residual Net實現了圖片3.57%錯誤率

640?wx_fmt=png

Reinforcement Learning: 通過獎勵機制強化學習,並且做出相應的動作

640?wx_fmt=png

Unsupervised Learning:

1. Deep Style

640?wx_fmt=png

2. 生成圖片

640?wx_fmt=png

3. 無需人工介入理解文字的含義

640?wx_fmt=png

如何領取《1天搞懂深度學習》原版PPT?

640?wx_fmt=jpeg

第一步:識別下面二維碼,進入【七月線上實驗室】公眾號 

640?wx_fmt=png

第二步:在【七月線上實驗室】公眾號上回復 “PPT” ,即可獲得下載連結!

更多福利:

相關推薦

286乾貨深度學習

作者:慢慢的燃燒來源:http://blog.csdn.net/u010164190/artic

筆記深度學習

ML ≈ Looking for A function THREE STEPS FOR DL 1.define a set of function 2.goodness of function 3.pick the best func

深度學習--李宏毅教程分享

最好 的語音 電機 存在 aabb 工程學 bad 成功 並不是 原標題:【286頁幹貨】一天搞懂深度學習(臺灣資料科學年會課程) 本文是2016 臺灣資料科學年會前導課程“一天搞懂深度學習”的全部講義PPT(共268頁),由臺灣大學電機工程學助理教授李宏毅

深度學習

深度學習的三個步驟 1.定義一組函式→即找到合適的神經網路(網路的引數θ:包括權重和偏移bias) 神經網路的思想來源於對人腦生理上的研究。 人類智慧最重要的部分是大腦,大腦雖然複雜,它的組成單元卻是相對簡單的,大腦皮層以及整個神經系統,是由神經元細胞組成的

深度學習”筆記

“一天搞懂深度學習”筆記 1. A brief Introduction of Deep Learning 1.1 Introduction of Deep Learning Neuron ![在

讀《深度學習》ppt的筆記

讀《一天搞懂深度學習》ppt筆記 softmax 輸出層: 一般情況下,輸出層可以輸出任何值: 在輸出層前加Softmax Layer: 推薦的開發工具: tips 不要總是將原因歸到過擬合,下圖中,56層

深度學習學習筆記1

Introduce of deep learning 1.問題展示 正常情況下,輸入為‘cat’輸出為一張貓的圖片;而我們研究的內容是輸入一張貓的圖片,輸出‘cat’。f(‘cat’) = a

286PDF教你如何明白深度學習的演算法、理論與計算系統!(可下載)

【導讀】如何將深度學習等AI演算法應用到實際場景裡,不是一件容易的事情。 2016年,卡耐基梅隆大學電腦科學院的終身教授邢波(Eric Xing)在匹茲堡創辦了Petuum,他致力於建立一個平臺,通過自定義的虛擬化和作業系統構建機器學習和深度學習應用程式,為企業提供所需的機器學習工具。結合

機器學習PPT筆記-1

Introduction of Deep Learning some introductions Machine Learning is close to Looking for a Function The model is a set of fun

李巨集毅老師《1深度學習

Deep Learning • 上學期的「機器學習」錄影 • DNN: https://www.youtube.com/watch?v=Dr-WRlEFefw • Tips for DNN: https://www.youtube.com/watch?v=xki61j7z-30 • CNN:

深度學習導論 - 讀李巨集毅《1深度學習

先引用他人關於李巨集毅教授關於深度學習導論的PPT,應該非常容易入門。 ”《1天搞懂深度學習》,300多頁的ppt,臺灣李巨集毅教授寫的,非常棒。不誇張地說,是我看過最系統,也最通俗易懂的,關於深度學習的文章。“ 這是slideshare的連結:htt

深度學習”之三:多層神經網路

為了克服單層神經網路只能解決線性可分問題的侷限性,神經網路進化為多層結構。然而,花費了將近30年的時間,才將隱藏層新增到單層神經網路中。很難理解為什麼花費了這麼長時間,其中的主要問題是學習規則。 單層神經網路中的增量規則對於多層神經網路的訓練是無效的,這是因為訓練中在隱藏層產生的誤差並沒

深度學習”之二:神經網路

注意對比左右兩個框圖,用神經網路代替模型,用學習規則代替機器學習。 因此,神經網路是實現機器學習的一種重要模型,確定模型(神經網路)的過程稱為學習規則。 大腦與神經網路的類比:大腦的神經元對應神經網路的節點,大腦的神經元連線對應神經網路的連線權值。 三輸入的神經

深度學習”之一:機器學習

一般來說,人工智慧、機器學習和深度學習是相互關聯的:“深度學習是一種機器學習,而機器學習是一種人工智慧。” 機器學習指的是人工智慧的特定領域,即,機器學習表示人工智慧的特定技術組成。機器學習是一種從“資料”中找出“模型”的技術。 深度學習是機器學習的一種技術。 深度學習近年來備受

深度學習”之四:基於神經網路的分類

分類用於確定資料所歸屬的類別,而回歸是根據已知的資料進行推斷或估計某個未知量,比如根據年齡和教育水平進行收入預測分析。分類的典型應用是垃圾郵件過濾和字元識別。 雖然神經網路適用於分類和迴歸,但卻很少用於迴歸。這不是因為它的效能不好,而是因為大多數迴歸問題可以用更簡單的模型來解決。(迴歸問

深度學習”之五:深度學習

簡單地說,深度學習就是一種採用深度神經網路的機器學習技術,深度神經網路就是一種包含2個或者2個以上隱藏層的多層神經網路。 這裡再次簡單回顧一下“深度學習”的發展歷史: l 第一代神經網路——單層神經網路,在解決機器學習面臨的實際問題時,很快就暴露出它的基本侷限性,單層神經網路只

深度學習》PPT翻譯

前言 深度學習最近是真火,一開始聽說這個名字的時候感覺莫名其妙,難道是教程式設計師怎麼學習的?後來查閱了一些資料,原來是跟人工智慧有關的。 其中李巨集毅的《一天學懂深度學習》挺適合初學者的。於是我花了一點時間翻譯了一下該套PPT的前50張,並加以自己的看法幫助小白去理解深度

乾貨文讀深度學習(附學習資源,據說點贊2W+)

文章來源:新智元 人工智慧(AI)和機器學習(ML)都屬於目前最熱門的話題。 在日常生活中,AI這個術語我們隨處可見。你或許會從立志高遠的開發者那裡聽說她(他)們想要學習AI。你又或許會從運營者那裡聽到他們想要在他們的的服務中實施AI。但往往這些人中的絕大多數都並不明白什麼是AI。 在你閱讀

50乾貨常用推薦演算法(可下載PDF)

內容主要圍繞電商中用到的一些推薦演算法,參考了Xavier Amatriain在CMU的Mach

直觀理解RNN(迴圈神經網路)基礎篇

推薦閱讀時間8min~15min 主要內容簡介:神經網路基礎、為什麼需要RNN、RNN的具體結構、以及RNN應用和一些結論 1神經網路基礎 神經網路可以當做是能夠擬合任意函式的黑盒子,只要訓練資料足夠,給定特定的x,就能得到希望的y,結構圖如下: 將神經網路模型訓練好之後,在輸入層給定一