吳恩達深度學習第一課第二週
阿新 • • 發佈:2019-02-16
第二週 神經網路基礎
打卡(1)
2.1 二分類
在二分分類問題中 目標是訓練處一個分類器,它以圖片(本例中)的特徵向量X作為輸入,來預測輸出的結果標籤y是1還是0,也就是預測圖片中是否有貓。
課程中會用到的數學符號:
- :表示一個單獨的樣本;
- :表示x是維的特徵向量;
- {0, 1} :標籤y值為0或1;
- 訓練集有m個訓練樣本構成:表示樣本一的輸入和輸出;表示樣本二的輸入和輸出…,這些樣本整個一起就表示訓練集,m表示訓練樣本的個數。
- 神經網路中構建的輸入矩陣中,通常行表示樣本數; 列表示特徵維度。
2.2 logistic迴歸
(向量一般預設為列向量,轉置為行向量)
* sigmoid函式的函式值{0,1},且當自變數趨近負無窮大時,函式值趨近為0; 當自變數趨近為正無窮大是,函式值趨近為1.
* 神經網路中,特徵引數向量和截距通常看做獨立的引數,不像紅色公式中那樣表達會更好(紅色公式在本課程中不會使用)
2.3 logistic迴歸損失函式
logistic的損失函式是: (logistic的損失函式之所以不用是因為這個損失函式在使用梯度下降法時可能會產生非凸優化問題)。
* 損失函式適用於單個訓練樣本;而成本函式是基於引數的總成本,在訓練logistic模型時,我們要找到合適的引數和,就是找到讓的成本函式儘可能小的和。
打卡(2)
2.4 梯度下降法
通過梯度下降法求解使得成本函式最小的引數向量和截距。
* 編寫程式碼時的對的偏微分用表示,的偏微分用表示
2.5 導數
(略)
2.6 更多的導數例子
(略)
2.7 流程圖
* 流程圖是用藍色箭頭畫出來的,從左到右的計算
* 流程圖的導數是用紅色箭頭畫出來的,從右到左
2.8 流程圖的導數計算(反向傳播)
2.9 logistic迴歸中的梯度下降
* ,
其中,