1. 程式人生 > >吳恩達深度學習總結(2)

吳恩達深度學習總結(2)

DeaplearningAI01.weak3

回顧 Logistic Regression

Logistic Regression

z =

ω T x + b a = σ
( z ) L ( a , y )
z = \omega^Tx + b \to a=\sigma(z) \to \mathcal{L}(a,y)

淺層神經網路(只有一層隱藏單元)

在本週的課程中,淺層神經網路的 W W 均沒有轉置,也就是說,對於 m m 個大小為 n x n_x 的輸入樣本, W W 的大小為 m n x m*n_x
淺層神經網路
神經網路的命名中,輸入層的下一層作為神經網路的第一層,輸出層作為神經網路的最後一層。圖中每一個節點進行線性和非線性變換,即 z = ω T x + b z = \omega^Tx + b a = g ( z ) a = g(z) g ( x ) g(x) 為啟用函式。
要理解課程最重要的是分清每個符號的代表的意思

網路中每個符號的含義

以每個輸入樣本為照片拉成的向量為例,輸入樣本的大小為 n x m n_x * m n x = w h c h a n n e l s n_x = w*h*channels
x i x_i :單個輸入向量的 i i 位置上的值

a [ j ] a^{[j]} : 第j層的輸入值

a i [ j ] a^{[j]}_i : 第 j j 層的第 i i 個輸入值

n [ i ] n^{[i]} :第 i i 層輸入向量的維度, n [ 0 ] = n x n^{[0]} = n_x

x ( i ) x^{(i)} :第 i i 個輸入的樣本

所以該淺層神經網路的第一層計算過程可以表示為
z 1 [ 1 ] = ω 1 [ 1 ] T x ( i ) + b 1 [ 1 ] , a 1 [ 1 ] = g ( z 1 [ 1 ] ) z_1^{[1]} = \omega_1^{[1]T}x^{(i)} + b_1^{[1]}, a_1^{[1]} = g(z_1^{[1]})
z 2 [ 1 ] = ω 2 [ 1 ] T x ( i ) + b 2 [ 1 ] , a 2 [ 1 ] = g ( z 2 [ 1 ] ) z_2^{[1]} = \omega_2^{[1]T}x^{(i)} + b_2^{[1]}, a_2^{[1]} = g(z_2^{[1]})
z 3 [ 1 ] = ω 3 [ 1 ] T x ( i ) + b 3 [ 1 ] , a 3 [ 1 ] = g ( z 3 [ 1 ] ) z_3^{[1]} = \omega_3^{[1]T}x^{(i)} + b_3^{[1]}, a_3^{[1]} = g(z_3^{[1]})
z 4 [ 1 ] = ω 4 [ 1 ] T x ( i ) + b 4 [ 1 ] , a 4 [ 1 ] = g ( z 4 [ 1 ] ) z_4^{[1]} = \omega_4^{[1]T}x^{(i)} + b_4^{[1]}, a_4^{[1]} = g(z_4^{[1]})
整個網路的計算過程可表示為

相關推薦

深度學習總結(2)

DeaplearningAI01.weak3 回顧 Logistic Regression 淺層神經網路(只有一層隱藏單元) 網路中每個符號的含義 啟用函式的選擇 可選函式 啟用函式的選擇 使用非線性啟

深度學習總結(1)

DeaplearningAI01.weak2 forward backward 本週主要介紹了神經網路中forward和backward的一般實現和向量實現。一般實現較為簡單,向量實現中存在一些疑點

深度學習總結(15)

自然語言處理與詞嵌入 詞彙表徵 基於遷移學習訓練word embedding 步驟 類比推理演算法 Embedding matrix skip gram CBOW 負取樣 GloVe

深度學習4.2練習_Convolutional Neural Networks_Happy House & Residual Networks

1、Happy House 1.1、 Load Dataset 1.2、構建流圖:def HappyModel 1.3、PlaceHolder --> happyModel = HappyModel((64,64,3))

深度學習4.2練習_Convolutional Neural Networks_Residual Networks

轉載自吳恩達老師深度學習課程作業notebook Residual Networks Welcome to the second assignment of this week! You will learn how to build very deep convolutional

深度學習總結(11)

經典網路的學習 LeNet-5 上圖是LeNet-5的結構(來自吳恩達的課件,下面所有圖片均來自於吳恩達課件),該網路只有卷積層,pooling層和全連線層,pooling層使用的是均值池化,非線性啟用使用的是sigmoid/tanh,而不是現在最常用的Re

深度學習總結(13)

人臉識別 分類 Verification:一對一識別,給一張照片,看是否是給定的照片 Recognition:一對n識別,給一張照片看是否是資料庫中的人 顯然 Recognition可以通過n次Verification完成 One-shot learnin

-深度學習-課程筆記-3: Python和向量化( Week 2 )

有時 指數 檢查 都是 效果 很快 -1 tro str 1 向量化( Vectorization ) 在邏輯回歸中,以計算z為例,z = w的轉置和x進行內積運算再加上b,你可以用for循環來實現。 但是在python中z可以調用numpy的方法,直接一句z = np.d

深度學習專項課程2學習筆記/week2/Optimization Algorithms

sce 適應 耗時 bubuko 優化算法 src bat -a 過程 Optimization algorithms 優化算法以加速訓練。 Mini-batch gradient descend Batch gradient descend:每一小步梯度下降否需要計算所

深度學習2-Week2課後作業3-優化演算法

一、deeplearning-assignment 到目前為止,在之前的練習中我們一直使用梯度下降來更新引數並最小化成本函式。在本次作業中,將學習更先進的優化方法,它在加快學習速度的同時,甚至可以獲得更好的最終值。一個好的優化演算法可以讓你幾個小時內就獲得一個結果,而不是等待幾天。 1.

深度學習2-Week1課後作業3-梯度檢測

一、deeplearning-assignment 神經網路的反向傳播很複雜,在某些時候需要對反向傳播演算法進行驗證,以證明確實有效,這時我們引入了“梯度檢測”。 反向傳播需要計算梯度 , 其中θ表示模型的引數。J是使用前向傳播和損失函式計算的。因為前向傳播實現相對簡單, 所以

深度學習2-Week3課後作業-Tensorflow

一、deeplearning-assignment 到目前為止,我們一直使用numpy來建立神經網路。這次作業將深入學習框架,可以更容易地建立神經網路。 TensorFlow,PaddlePaddle,Torch,Caffe,Keras等機器學習框架可以顯著地加速機器學習開發。這些框架有

深度學習4-Week2課後作業2-殘差網路

一、Deeplearning-assignment 在本次作業中,我們將學習如何通過殘差網路(ResNets)建立更深的卷及網路。理論上,深層次的網路可以表示非常複雜的函式,但在實踐中,他們是很難建立和訓練的。殘差網路使得建立比以前更深層次的網路成為可能。對於殘差網路的詳細講解,具體可參考該

深度學習4-Week4課後作業2-Neural Style Transfer

一、Deeplearning-assignment 在本節的學習中,我們將學習神經風格遷移(Neural Style Transfer)演算法,通過該演算法使得兩張不同風格的圖片融合成一張圖片。 問題描述:神經風格遷移演算法是深度學習中的一種有趣的技術。正如下面的圖片所示,演算法將兩種圖

深度學習筆記(15-21)總結-淺層神經網路總結

恩達老師的這一週的淺層神經網路總結,還是簡單的架構說明,但是還是要仔細讀哦! 架構分為四部分: 神經網路表示 計算神經網路輸出 啟用函式 神經網路的梯度下降 第一和第二部分: 神經網路表示和計算神經網路輸出部分,由於本部分講的是淺層的網路輸出,所以就是隻有一個隱藏層的神經網路,你也

深度學習課程學習總結

本文章主要總結吳恩達DeepLearning課程中所提到的一些機器學習策略 1、啟用函式 Sigmoid函式 tanh函式 ReLU函式 2、權重初始化 全零初始化的弊端:若權重初始化為0,則在訓練過程中,每個隱含層之間存在對稱性,即在訓練過程中,每個隱含層的求導等

深度學習2-Week1課後作業2-正則化

一、deeplearning-assignment 這一節作業的重點是理解各個正則化方法的原理,以及它們的優缺點,而不是去注重演算法實現的具體末節。 問題陳述:希望你通過一個數據集訓練一個合適的模型,從而幫助推薦法國守門員應該踢球的位置,這樣法國隊的球員可以用頭打。法國過

深度學習2.3練習_Improving Deep Neural Networks_Tensorflow

轉載自吳恩達老師深度學習練習notebook TensorFlow Tutorial Welcome to this week’s programming assignment. Until now, you’ve always used numpy to build neural

深度學習2.2練習_Improving Deep Neural Networks_Optimization

版權宣告:本文為博主原創文章,未經博主允許不得轉載。 https://blog.csdn.net/weixin_42432468 學習心得: 1、每週的視訊課程看一到兩遍 2、做筆記 3、做每週的作業練習,這個裡面的含金量非常高。先根據notebook過一遍,掌握後一定要自己敲一遍,

深度學習2.1練習_Improving Deep Neural Networks(Initialization_Regularization_Gradientchecking)

版權宣告:本文為博主原創文章,未經博主允許不得轉載。 https://blog.csdn.net/weixin_42432468 學習心得: 1、每週的視訊課程看一到兩遍 2、做筆記 3、做每週的作業練習,這個裡面的含金量非常高。先根據notebook過一遍,掌握後一定要自己敲一遍,