1. 程式人生 > >Coursera deeplearning.ai 深度學習筆記1-4-Deep Neural Networks-深度神經網路原理推導與程式碼實現

Coursera deeplearning.ai 深度學習筆記1-4-Deep Neural Networks-深度神經網路原理推導與程式碼實現

在掌握了淺層神經網路演算法後,對深度神經網路進行學習。

1. 原理推導

1.1 深度神經網路表示

定義:L表示神經網路總層數,上標[l]代表第l層網路,n[l]代表第l層的節點數,a[l]代表第l層的啟用,W[l]b[l]為第l層的引數。輸入層為第0層a[0] = x,輸出層為第L層a[L]

這裡寫圖片描述

1.2 正向傳播(Forward Propagation)

類似淺層神經網路的推導可以得到,對於第l層,針對單個樣本,正向傳播可以表示為:
z[l]=W[l]a[l1]+b[l],a[l]=g[l](z[l])(1)
式中,g[l](z[l])為第l層的啟用函式,且a[0] = x

。針對m個樣本,以上標(m)表示第m個樣本,將上式改寫為:
Z[l]=W[l]A[l1]+b[l],A[l]=g[l](Z[l])(2)
式中,A[0] = X
Z[l]=|z[l](1)||z[l](2)||||z[l](m)|,A[l]=|a[l](1)||a[l](2)||||a[l](m)|(3)
因此,對於以上L層深度神經網路,給定A[0] = X,正向傳播計算流程如下:
A[0]=Xforiinrange(1,L+1):Z[l]=W[l]A[l1]+b[l]A[l]=g[l](Z[l])(4)
正向傳播,實際就是輸入A[l-1]得到A[l]的過程,同時需要將Z
[l]儲存以便於反向傳播的計算。
各矩陣維度如下表:

矩陣
A[0] = X
A[l]
W[l]
b[l]
Z[l]
維度
(n[0], m)
(n[l], m)
(n[l], n[l-1])
(n[l], 1)
(n[l], m)

1.3 反向傳播(Backward Propagation)

類似淺層神經網路的推導可以得到,對於第l層,針對單個樣本,反向傳播可以表示為:

相關推薦

Coursera deeplearning.ai 深度學習筆記1-4-Deep Neural Networks-深度神經網路原理推導程式碼實現

在掌握了淺層神經網路演算法後,對深度神經網路進行學習。 1. 原理推導 1.1 深度神經網路表示 定義:L表示神經網路總層數,上標[l]代表第l層網路,n[l]代表第l層的節點數,a[l]

吳恩達深度學習筆記3-Course1-Week3【淺層神經網路

淺層神經網路: 一、淺層神經網路的表示 本文中的淺層神經網路指的是 two layer nn 即 one input layer + one hidden layer + one output layer。通常計算神經網路的層數不包括 input l

吳恩達 DeepLearning.ai 課程提煉筆記4-2)卷積神經網絡 --- 深度卷積模型

mes and shift abd actual 應用 比賽 特征 通道 1. 經典的卷積網絡 介紹幾種經典的卷積神經網絡結構,分別是LeNet、AlexNet、VGGNet。 LeNet-5: LeNet-5主要是針對灰度設計的,所以其輸入較小,為 ,其結構如下:

深度學習筆記1】如何建立和確定模型正確性?如何優化模型?

近期看了吳恩達的一本書,關於如何建立和確定優化模型?裡面有個人認為需要學習的地方,故做筆記: 1.模型訓練一共有三個資料集:訓練集、開發集(驗證集)、測試集。開發集不能太小,通常在1000-10000,並且測試集屬於同一分佈;2.過擬合:訓練過程中開發集的準確率和測試集測試的準確率差別不大,若開發集比測試集

deeplearning.ai課程學習1

本系列主要是我對吳恩達的deeplearning.ai課程的理解和記錄,完整的課程筆記已經有很多了,因此只記錄我認為重要的東西和自己的一些理解。   第一門課 神經網路和深度學習(Neural Networks and Deep Learning) 第一週:深度學習引言(Introductio

吳恩達深度學習筆記4)-為什麼深度學習會興起?

為什麼深度學習會興起?(Why is Deep Learning taking off?) 本節視訊主要講了推動深度學習變得如此熱門的主要因素。包括資料規模、計算量及演算法的創新。(3個重點概念!請背書!) 深度學習和神經網路之前的基礎技術理念已經存在大概幾十年了,為什麼它們現在才突

python3學習筆記1-4

#引數定義順序:必選,預設,可變,關鍵字引數 def func(a, b, c=0, *args, **kw): print('a=', a, 'b=', b, 'c=', c, 'args=', args, 'kw=', kw) args = (1,2,3,4) kw = {'x'

深度學習筆記1:end-to-end、anchor box解釋、人體檢測程式碼

非end-to-end方法: 目前目標檢測領域,效果最好,影響力最大的還是RCNN那一套框架,這種方法需要先在影象中提取可能含有目標的候選框(region proposal), 然後將這些候選框輸入到CNN模型,讓CNN判斷候選框中是否真的有目標,以及目標的類別是什麼。在我們看到的結果中,往往是類似與下圖這種

深度學習筆記1-神經網路

深度學習筆記1-神經網路 神經元與多層網路 神經網路中最基本的成分是神經元模型,目前基本上用的都是“M-P神經元模型”。在這個模型中,神經元接收到來自 n

優達學城(Udacity)深度學習筆記-1.Python&os學習

歡迎使用Markdown編輯器寫部落格 Python對於檔案操作非常方便,很大一部分是因為os這個庫,在做優達城深度學習作業的時候裡面有一堆os,各種列表推導式混合os.path,一下就繞暈了。這裡做點筆記,方便自己學習&複習。 如上圖,

Ng深度學習筆記 1-線性迴歸、監督學習、成本函式、梯度下降

他講了監督學習的兩類問題,分類和迴歸,並引入了兩個例子。一個講用現有的房屋面積和房價的資料集推算任意房子的價格(可認為是連續的),然後再引入其他模型引數,比如臥室個數等。另一個講用腫瘤的大小來推斷是否為良性或惡性腫瘤,如果引入其他引數,比如腫瘤細胞大小的一致

吳恩達深度學習筆記1-神經網絡的編程基礎(Basics of Neural Network programming)

算法 只有一個 ear 最小化 維度 編程基礎 clas 什麽 分類問題 一:二分類(Binary Classification)   邏輯回歸是一個用於二分類(binary classification)的算法。在二分類問題中,我們的目標就是習得一個分類器,它以對象的特

Stanford公開課《編譯原理學習筆記(1~4課)

目錄 一. 編譯的基本流程 二. Lexical Analysis(詞法分析階段) 2.1 Lexical Specification(分詞原則) 2.2 Finite Automata (典型分詞演算法-有

家樂的深度學習筆記4」 - softmax迴歸

[TOC] ## softmax迴歸 線性迴歸模型適用於輸出為連續值的情景,而softmax迴歸的輸出單元由一個變成了多個,且引入了softmax運算輸出類別的概率分佈,使輸出更適合離散值的預測與訓練,模型輸出可以是一個像影象類別這樣的離散值,其是一個單層神經網路,輸出個數等於分類問題中的類別個數。 #

<吳恩達老師深度學習筆記二>第一周,深度學習介紹(未完待續)

神奇 建立 網絡筆記 1.3 展示 定義 信息 英語 輸出 摘要: 本篇博客僅作為筆記,如有侵權,請聯系,立即刪除(網上找博客學習,然後手記筆記,因紙質筆記不便保存,所以保存到網絡筆記)。   1.1 歡迎   深度學習常常運用於:讀取X光圖像、個性化教育、精準化農業、駕駛

<吳恩達老師深度學習筆記二>第一週,深度學習介紹(未完待續)

摘要: 本篇部落格僅作為筆記,如有侵權,請聯絡,立即刪除(網上找部落格學習,然後手記筆記,因紙質筆記不便儲存,所以儲存到網路筆記)。   1.1 歡迎   深度學習常常運用於:讀取X光影象、個性化教育、精準化農業、駕駛汽車等領域。深度學習處於AI分支中,學習如何建立神經網路(包含一個深度神經網路),以及如

學習筆記之——基於pytorch的卷積神經網路

本博文為本人的學習筆記。參考材料為《深度學習入門之——PyTorch》 pytorch中文網:https://www.pytorchtutorial.com/  關於反捲積:https://github.com/vdumoulin/conv_arithmetic/blob/ma

深度學習方法(五):卷積神經網路CNN經典模型整理Lenet,Alexnet,Googlenet,VGG,Deep Residual Learning

歡迎轉載,轉載請註明:本文出自Bin的專欄blog.csdn.net/xbinworld。  技術交流QQ群:433250724,歡迎對演算法、技術感興趣的同學加入。 關於卷積神經網路CNN,網路和文獻中有非常多的資料,我在工作/研究中也用了好一段時間各種常見的model了,就想著

DeepLearning tutorial(4)CNN卷積神經網路原理簡介+程式碼詳解

分享一下我老師大神的人工智慧教程!零基礎,通俗易懂!http://blog.csdn.net/jiangjunshow 也歡迎大家轉載本篇文章。分享知識,造福人民,實現我們中華民族偉大復興!