1. 程式人生 > >deeplearning.ai學習筆記:第一課第二週

deeplearning.ai學習筆記:第一課第二週

1 二分類

m樣本數目,n樣本特徵數目
建議使用的符號表示

X = [

 
   
x ( 1 ) x ( 2 ) x ( m )       ] R n × m       y = [ y ( 1 ) y ( 2 ) y ( m ) ] R 1 × m X = \left[\begin{matrix} | & | &&& | \\ ~& ~&&& ~ \\ x^{(1)} & x^{(2)} &\cdots&& x^{(m)} \\ ~& ~&&& ~ \\ | & | &&& | \end{matrix}\right] \in R^{n \times m} \\ ~~\\ ~~ \\ y = \left[\begin{matrix} y^{(1)} & y^{(2)} &\cdots&& y^{(m)} \end{matrix}\right] \in R^{1 \times m}

2 logistic regression

二分類演算法,目的是最小化預測結果和真實結果之間的誤差。

給定 x R n x \in R^n ,目的是得到 y ^ = P ( y = 1 x ) , 0 y ^ 1 \hat{y} = P(y=1|x), 0 \leq \hat y \leq 1

輸入: x R n x \in R^n
輸出: y { 0 , 1 } y \in \{0,1\} ;
引數: W R n W \in R^n
偏置: b R b \in R
輸出: y ^ = σ ( W T x + b ) \hat y = \sigma(W^Tx+b)
啟用函式:sigmoid, σ ( x ) = 1 1 + e x \sigma(x)=\frac{1}{1+e^{-x}}
在這裡插入圖片描述 z + , σ ( z ) 1 z \rightarrow +\infty,\sigma(z) \rightarrow 1 ;
z , σ ( z ) 0 z \rightarrow -\infty,\sigma(z) \rightarrow 0 ;
z = 0 , σ ( z ) = 0.5 z = 0,\sigma(z) = 0.5

3 logistic regresstion cost function

loss function:在單個樣本上定義的損失,衡量的是在單個訓練樣本上的表現;
cost function:在整個訓練集上定義的損失,衡量的是在整個訓練集上的表現。

logistic regression loss function:
L ( y ( i ) , y ^ ( i ) ) = ( y ( i ) log ( y ^ ( i ) ) + ( 1 y ^ ( i ) ) log ( 1 y ^ ( i ) ) ) L(y^{(i)},\hat{y}^{(i)}) = - (y^{(i)}\log(\hat{y}^{(i)})+(1-\hat{y}^{(i)})\log(1-\hat{y}^{(i)}))
  ~
y ( i ) = 0 , L ( y ( i ) , y ^ ( i ) ) = log ( 1 y ^ ( i ) ) y^{(i)} = 0,L(y^{(i)},\hat{y}^{(i)})=-\log(1-\hat{y}^{(i)}) ,為了儘可能減小 L ( y ( i ) , y ^ ( i ) )

相關推薦

deeplearning.ai學習筆記第一第二

1 二分類 m樣本數目,n樣本特徵數目 建議使用的符號表示 X =

deeplearning.ai學習筆記第一第四周

1 深層神經網路 引數: W [

deeplearning.ai學習筆記第一第三

1 神經網路的表示 在計算神經網路的層數時,一般不把輸入層計算在內。如一個由輸入層、單隱藏層、輸出層組成的神經網路,一般叫做是兩層的神經網路。 上述單隱藏神經元的神經網路,神經元要做兩件事情,一是計算 z

deeplearning.ai學習筆記第一第一

1 什麼是神經網路 ? 上圖是傳統意義上的神經網路。 輸入層、隱藏層、輸出層; 我們沒有指定神經網路各隱藏單元的含義,只是給定了輸入,也明確了輸入的含義,由神經網路自己來確定各隱藏單元的含義; 全連線的神經網路,連線數很多。 2 用神經網路做監督學

fast.ai 深度學習筆記第一部分第二

原文:Deep Learning 2: Part 1 Lesson 2 作者:Hiromi Suenaga 論壇 筆記本 回顧上一課 [01:02] 我們使用 3 行程式碼來構建影象分類器。 為了訓練模型,需要在PATH下以某種方式組織資料(在本例中為data/do

fast.ai 深度學習筆記第一部分第五

原文:Deep Learning 2: Part 1 Lesson 5 作者:Hiromi Suenaga 課程論壇 一,引言 沒有足夠的關於結構化深度學習的出版物,但它肯定出現在行業中: 結構化深度學習,作者:Kerem Turgutlu @datascience.com

fast.ai 深度學習筆記第一部分第四

原文:Deep Learning 2: Part 1 Lesson 4 作者:Hiromi Suenaga 課程論壇 學生的文章: 改善學習率的方式 迴圈學習率技術 探索帶有重啟動的隨機梯度下降(SGDR) 使用差異學習率的遷移學習 讓計算機看得比人類更好

fast.ai 深度學習筆記第一部分第一

原文:Deep Learning 2: Part 1 Lesson 1 作者:Hiromi Suenaga 課程論壇 入門 [0:00]: 為了訓練神經網路,你肯定需要圖形處理單元(GPU) - 特別是 NVIDIA GPU,因為它是唯一支援 CUDA(幾乎所有深度學習庫和

fast.ai 深度學習筆記第一部分第三

原文:Deep Learning 2: Part 1 Lesson 3 作者:Hiromi Suenaga 課程論壇 學生建立的有用材料: AWS 操作方法 TMUX 第 2 課總結 學習率查詢器 PyTorch

吳恩達Coursera深度學習課程 DeepLearning第一第二程式設計作業

     最近在學習吳恩達的Deep Learning 系列課程,首先在此對吳老師表示深深的謝意。第一次接觸深度學習方面的知識,更是第一次用程式碼程式設計實現深度學習的演算法。所以在完成老師的作業過程中,遇到很多問題,最終在度孃的幫助下,花了一天的時間,終於把程式設計實現了邏

Coursera 深度學習 deep learning.ai 吳恩達 神經網路和深度學習 第一 第二 程式設計作業 Python Basics with Numpy

Python Basics with Numpy (optional assignment) Welcome to your first assignment. This exercise gives you a brief introduction to P

DeepLearning.ai學習筆記(四)卷積神經網絡 -- week1 卷積神經網絡基礎知識介紹

除了 lock 還需要 情況 好處 計算公式 max 位置 網絡基礎 一、計算機視覺 如圖示,之前課程中介紹的都是64* 64 3的圖像,而一旦圖像質量增加,例如變成1000 1000 * 3的時候那麽此時的神經網絡的計算量會巨大,顯然這不現實。所以需要引入其他的方法來

DeepLearning.ai學習筆記(四)卷積神經網絡 -- week2深度卷積神經網絡 實例探究

過濾 common 經典 上一個 問題 inline 最壞情況 ali method 一、為什麽要進行實例探究? 通過他人的實例可以更好的理解如何構建卷積神經網絡,本周課程主要會介紹如下網絡 LeNet-5 AlexNet VGG ResNet (有152層) Incep

學習筆記第一

內建函式lis = list(range(5))print(lis)#map函式。處理序列中的每個元素,得到一個“列表”,該“列表”元素個數與位置與原來一樣print(list(map(lambda x:x+1,list(range(19)))))r ='adasdafgafaf'print(list(map

吳恩達 DeepLearning 第一第二 測驗 · Neural Network Basics

      ————————————————–中文翻譯—————————————————————————————– 1、神經元的計算是什麼?(B) A. 在將輸出應用到啟用函式之前, 神經元計算所有特徵的平均值 B. 神經元計算一個線性函式 (z = Wx + b), 然後是一個啟用函

DeepLearning.ai 學習筆記以及作業

第一章 神經網路與深度學習(Neural Network & Deeplearning) 第二章 改善深層神經網路 DeepLearning.ai學習筆記(二)改善深層神經網路:超引數除錯、正則化以及優化–Week1深度學習的實用層面 DeepLe

深度學習-吳恩達第一第二課程作業

這周作業是,給出一張圖片,判斷這張圖是不是貓。 這是一個二分類問題,結果是非0即1的,使用邏輯迴歸(Logic Regression),可以說,瞭解這個迴歸方法,有些python基礎,會使用jupyter notebook就可以嘗試著碼一遍程式碼,走完整個學習流程,能進一步

Ng深度學習課程-第三第二筆記摘要

進行誤差分析 清除標註錯誤的資料 快速搭建你的第一個系統,並進行迭代 使用來自不同分佈的資料進行訓練和測試 資料分佈不匹配時的偏差與方差的分析

Ng深度學習課程-第四第二筆記摘要

深度卷積網路:例項探究  為什麼要進行例項探究? 經典網路 殘差網路(ResNets)(Residual Networks (ResNets))

【Coursera】吳恩達 deeplearning.ai 04.卷積神經網路 第二 深度卷積神經網路 課程筆記

深度卷積神經網路 2.1 為什麼要進行例項化 實際上,在計算機視覺任務中表現良好的神經網路框架,往往也適用於其他任務。 2.2 經典網路 LeNet-5 AlexNet VGG LeNet-5 主要針對灰度影象 隨著神經網路的加深