1. 程式人生 > >吳恩達深度學習第一課第二週

吳恩達深度學習第一課第二週

第二週 神經網路基礎

打卡(1)

2.1 二分類這裡寫圖片描述

在二分分類問題中 目標是訓練處一個分類器,它以圖片(本例中)的特徵向量X作為輸入,來預測輸出的結果標籤y是1還是0,也就是預測圖片中是否有貓。

課程中會用到的數學符號:

  • (x,y):表示一個單獨的樣本;
  • xRnx:表示x是nx維的特徵向量;
  • y{0, 1} :標籤y值為0或1;
  • 訓練集有m個訓練樣本構成:(x(1),y(1))表示樣本一的輸入和輸出;(x(2),y(2))表示樣本二的輸入和輸出…(x(m),y(m)),這些樣本整個一起就表示訓練集,m表示訓練樣本的個數。
    m=mtrain(),m=mtest
  • 神經網路中構建的輸入矩陣X中,通常行表示樣本數; 列表示特徵維度。
    這裡寫圖片描述

2.2 logistic迴歸

這裡寫圖片描述
(向量w一般預設為列向量,轉置為行向量)
* sigmoid函式的函式值{0,1},且當自變數趨近負無窮大時,函式值趨近為0; 當自變數趨近為正無窮大是,函式值趨近為1.
* 神經網路中,特徵引數向量w和截距b通常看做獨立的引數,不像紅色公式中那樣表達會更好(紅色公式在本課程中不會使用)

2.3 logistic迴歸損失函式

這裡寫圖片描述
logistic的損失函式是:

(ylogy^+(1y)log(1y^)) (logistic的損失函式之所以不用12(y^y)2是因為這個損失函式在使用梯度下降法時可能會產生非凸優化問題)。
* 損失函式適用於單個訓練樣本;而成本函式是基於引數的總成本,在訓練logistic模型時,我們要找到合適的引數wb,就是找到讓的成本函式J儘可能小的wb

打卡(2)

2.4 梯度下降法

這裡寫圖片描述
通過梯度下降法求解使得成本函式最小的引數向量w和截距b
這裡寫圖片描述
* 編寫程式碼時w的對J(w,b)的偏微分用d

w表示,b的偏微分用db表示

2.5 導數

(略)

2.6 更多的導數例子

(略)

2.7 流程圖

這裡寫圖片描述
* 流程圖是用藍色箭頭畫出來的,從左到右的計算
* 流程圖的導數是用紅色箭頭畫出來的,從右到左

2.8 流程圖的導數計算(反向傳播)

這裡寫圖片描述

2.9 logistic迴歸中的梯度下降

這裡寫圖片描述
* "dz"=dldadadz,
其中,
a=σ(z)=11+ez