1. 程式人生 > >deeplearning.ai學習筆記:第一課第四周

deeplearning.ai學習筆記:第一課第四周

1 深層神經網路

在這裡插入圖片描述
引數:
W [ l ] R n

l × n l 1
W^{[l]} \in R^{n_l \times n_{l-1}}
b [ l ]
R n l × 1 b^{[l]} \in R^{n_l \times 1}

d W [ l ] R n l × n l 1 dW^{[l]} \in R^{n_l \times n_{l-1}}
d b [ l ] R n l × 1 db^{[l]} \in R^{n_l \times 1}

Z [ l ] R n l × m Z^{[l]} \in R^{n_l \times m}
A [ l ] R n l × m A^{[l]} \in R^{n_l \times m}
d Z [ l ] R n l × m dZ^{[l]} \in R^{n_l \times m}
d A [ l ] R n l × m dA^{[l]} \in R^{n_l \times m}

深度學習塊:

在這裡插入圖片描述

前向運算:
輸入: Z [ l ] Z^{[l]} , W [ l ] W^{[l]} , b [ l ] b^{[l]}
輸出: A [ l ] A^{[l]}

Z [ l ] = W [ l ] A [ l 1 ] + b [ l ] Z^{[l]} = W^{[l]}A^{[l-1]} + b^{[l]}
A [ l ] = g [ l ] ( Z [ l ] ) A^{[l]} = g^{[l]}(Z^{[l]})

輸出是 A [ l ] A^{[l]} ,但是 Z [ l ] Z^{[l]} 要暫存起來以便進行反向運算的梯度計算。

反向運算:
輸入: d A [ l ] dA^{[l]} 和快取的 Z [ l ] Z^{[l]}
輸出: d A [ l 1 ] dA^{[l-1]} , d W [ l ] dW^{[l]} , d b [ l ] db^{[l]}
d Z [ l ] = d A [ l ] g [ l ] ( Z [ l ] ) dZ^{[l]} = dA^{[l]}*{g^{[l]}}^{'}(Z^{[l]})
d W [ l ] = 1 m d Z [ l ] A [ l 1 ] T dW^{[l]} = \frac{1}{m}dZ^{[l]}{A^{[l-1]}}^T
d b [ l ] = 1 m n p . s u m ( d Z [ l ] , a x i s = 1 , k e e p d i m s = T r u e ) db^{[l]} = \frac{1}{m}np.sum(dZ^{[l]},axis=1,keepdims=True)
d A [ l 1 ] = W [ l ] T d Z [ l ] dA^{[l-1]}={W^{[l]}}^TdZ^{[l]}

深度學習網路:
   
 
 </div> 
 <div class=

相關推薦

deeplearning.ai學習筆記第一四周

1 深層神經網路 引數: W [

deeplearning.ai學習筆記第一三週

1 神經網路的表示 在計算神經網路的層數時,一般不把輸入層計算在內。如一個由輸入層、單隱藏層、輸出層組成的神經網路,一般叫做是兩層的神經網路。 上述單隱藏神經元的神經網路,神經元要做兩件事情,一是計算 z

deeplearning.ai學習筆記第一第二週

1 二分類 m樣本數目,n樣本特徵數目 建議使用的符號表示 X =

deeplearning.ai學習筆記第一第一

1 什麼是神經網路 ? 上圖是傳統意義上的神經網路。 輸入層、隱藏層、輸出層; 我們沒有指定神經網路各隱藏單元的含義,只是給定了輸入,也明確了輸入的含義,由神經網路自己來確定各隱藏單元的含義; 全連線的神經網路,連線數很多。 2 用神經網路做監督學

fast.ai 深度學習筆記第一部分

原文:Deep Learning 2: Part 1 Lesson 5 作者:Hiromi Suenaga 課程論壇 一,引言 沒有足夠的關於結構化深度學習的出版物,但它肯定出現在行業中: 結構化深度學習,作者:Kerem Turgutlu @datascience.com

fast.ai 深度學習筆記第一部分

原文:Deep Learning 2: Part 1 Lesson 4 作者:Hiromi Suenaga 課程論壇 學生的文章: 改善學習率的方式 迴圈學習率技術 探索帶有重啟動的隨機梯度下降(SGDR) 使用差異學習率的遷移學習 讓計算機看得比人類更好

fast.ai 深度學習筆記第一部分

原文:Deep Learning 2: Part 1 Lesson 3 作者:Hiromi Suenaga 課程論壇 學生建立的有用材料: AWS 操作方法 TMUX 第 2 課總結 學習率查詢器 PyTorch

fast.ai 深度學習筆記第一部分第一

原文:Deep Learning 2: Part 1 Lesson 1 作者:Hiromi Suenaga 課程論壇 入門 [0:00]: 為了訓練神經網路,你肯定需要圖形處理單元(GPU) - 特別是 NVIDIA GPU,因為它是唯一支援 CUDA(幾乎所有深度學習庫和

fast.ai 深度學習筆記第一部分第二

原文:Deep Learning 2: Part 1 Lesson 2 作者:Hiromi Suenaga 論壇 筆記本 回顧上一課 [01:02] 我們使用 3 行程式碼來構建影象分類器。 為了訓練模型,需要在PATH下以某種方式組織資料(在本例中為data/do

DeepLearning.ai學習筆記(四)卷積神經網絡 -- week1 卷積神經網絡基礎知識介紹

除了 lock 還需要 情況 好處 計算公式 max 位置 網絡基礎 一、計算機視覺 如圖示,之前課程中介紹的都是64* 64 3的圖像,而一旦圖像質量增加,例如變成1000 1000 * 3的時候那麽此時的神經網絡的計算量會巨大,顯然這不現實。所以需要引入其他的方法來

DeepLearning.ai學習筆記(四)卷積神經網絡 -- week2深度卷積神經網絡 實例探究

過濾 common 經典 上一個 問題 inline 最壞情況 ali method 一、為什麽要進行實例探究? 通過他人的實例可以更好的理解如何構建卷積神經網絡,本周課程主要會介紹如下網絡 LeNet-5 AlexNet VGG ResNet (有152層) Incep

學習筆記第一

內建函式lis = list(range(5))print(lis)#map函式。處理序列中的每個元素,得到一個“列表”,該“列表”元素個數與位置與原來一樣print(list(map(lambda x:x+1,list(range(19)))))r ='adasdafgafaf'print(list(map

DeepLearning.ai 學習筆記以及作業

第一章 神經網路與深度學習(Neural Network & Deeplearning) 第二章 改善深層神經網路 DeepLearning.ai學習筆記(二)改善深層神經網路:超引數除錯、正則化以及優化–Week1深度學習的實用層面 DeepLe

Deeplearning.ai學習筆記-神經網路和深度學習(二)

前言 這次學習的主題是深度學習,學習的第一門課程就是吳恩達的Deeplearning.ai專案課程。此係列筆記也是根據該深度學習課程整理而成。 該系列筆記是該課程中重點知識的羅列和自己的一些理解,可供正在學習此課程的同學作為參考,也是方便自己日

深度學習-吳恩達第一四周課程作業

在前面兩節課的基礎上,這次作業是訓練一個N層神經網路,來判斷一張圖片是否有貓,實現過程其實和第三週很相似,因為層數不確定,所以在向前傳播和反向傳播的時候會用到for迴圈,程式碼相對而言反而更精簡了。貼出的程式碼可能和老師給的模板不一樣,我沒有看到老師的原版課程作業,也是在網上

吳恩達深度學習第一四周(深層神經網路)

打卡(1) 4.1 深層神經網路 * 符號約定:輸入層X=a[0],預測值ŷ =a[L]X=a[0],預測值y^=a[L] 打卡(2) 4.2 深層網路中前向傳播 單個樣本:

《計算機系統要素》學習筆記第一章布林邏輯

1.工具準備 本書需要的工具和資源下載址:http://www.nand2tetris.org/software.php 工具分為tools和project兩個資料夾,開啟tools資料夾,開啟ha

-DeepLearning.ai 學習筆記(4-4)

卷積神經網路 — 特殊應用:人臉識別和神經風格遷移 Part 1:人臉識別 1. 人臉驗證和人臉識別 人臉驗證(Verification): Input:圖片、名字/ID; Output:輸入的圖片是否是對應的人。 1 to 1 問題。 人臉識別(Reco

《深度學習——Andrew Ng》第一四周程式設計作業

Building your Deep Neural Network: Step by Step 3.2 - L-layer Neural Network The initialization for a deeper L-layer neural

流程python學習筆記第一

這一章中作者簡要的介紹了python資料模型,主要是python的一些特殊方法。比如__len__, __getitem__. 並用一個紙牌的程式來講解了這些方法 首先介紹下Tuple和nametuple的區別: Nametuple是類似於元組的資料型別。除了能夠用索引來