1. 程式人生 > >考察深度學習基礎知識的45道題目(附答案)

考察深度學習基礎知識的45道題目(附答案)

1

  神經網路模型(Neural Network)因受人腦的啟發而得名。

  神經網路由許多神經元(Neuron)組成,每個神經元接受一個輸入,處理它並給出一個輸出。這裡是一個真實的神經元的圖解表示。下列關於神經元的陳述中哪一個是正確的?

  1. 一個神經元只有一個輸入和一個輸出

  2. 一個神經元有多個輸入和一個輸出

  3. 一個神經元有一個輸入和多個輸出

  4. 一個神經元有多個輸入和多個輸出

  5. 上述都正確

  答案:(E)

  一個神經元可以有一個或多個輸入,和一個或多個輸出。

  2

  下圖是一個神經元的數學表達

  神經元的組成部分表示為:

  - x1, x2,…, xN:表示神經元的輸入。可以是輸入層的實際觀測值,也可以是某一個隱層(Hidden Layer)的中間值

  - w1, w2,…,wN:表示每一個輸入的權重

  - bi:表示偏差單元(bias unit)。作為常數項加到啟用函式的輸入當中,和截距(Intercept)項相似

  - a:代表神經元的激勵(Activation),可以表示為

  - y:神經元輸出

  考慮上述標註,線性等式(y = mx + c)可以被認為是屬於神經元嗎:

  A. 是

  B. 否

  答案:(A)

  一個不包含非線性的神經元可以看作是線性迴歸函式(Linear Regression Function)。

  3

  假設在一個神經元上實現和(AND)函式,下表是和函式的表述

  X1

  X2

  X1 AND X2

  0

  0

  0

  0

  1

  0

  1

  0

  0

  1

  1

  1

  啟用函式為:

  權重(Weights)和偏差(Bias)哪一組是正確的?

  (提示:對哪一組w1, w2, b神經元可以實現AND函式)

  A. Bias = -1.5, w1 = 1, w2 = 1

  B. Bias = 1.5, w1 = 2, w2 = 2

  C. Bias = 1, w1 = 1.5, w2 = 1.5

  D. 以上都不正確

  答案:(A)

  1. f(-1.5*1 + 1*0 + 1*0) = f(-1.5) = 0

  2. f(-1.5*1 + 1*0 + 1*1) = f(-0.5) = 0

  3. f(-1.5*1 + 1*1 + 1*0) = f(-0.5) = 0

  4. f(-1.5*1 + 1*1+ 1*1) = f(0.5) = 1

  帶入測試值,A選項正確

  4

  多個神經元堆疊在一起構成了神經網路,我們舉一個例子,用神經網路模擬同或門(XNOR)。

  你可以看見最後一個神經元有兩個輸入。所有神經元的啟用函式是:

  假設X1是0,X2是1,神經網路的輸出是什麼?

  1. 0

  2. 1

  答案:(A)

  a1輸出: f(0.5*1 + -1*0 + -1*1) = f(-0.5) = 0

  a2輸出: f(-1.5*1 + 1*0 + 1*1) = f(-0.5) = 0

  a3輸出: f(-0.5*1 + 1*0 + 1*0) = f(-0.5) = 0

  正確答案是A

  5

  在一個神經網路裡,知道每一個神經元的權重和偏差是最重要的一步。如果以某種方法知道了神經元準確的權重和偏差,你就可以近似任何函式。實現這個最佳的辦法是什麼?

  1. 隨機賦值,祈禱它們是正確的

  2. 搜尋所有權重和偏差的組合,直到得到最佳值

  3. 賦予一個初始值,通過檢查跟最佳值的差值,然後迭代更新權重

  4. 以上都不正確

  答案:(C)

  選項C是對梯度下降的描述。

  6

  梯度下降演算法的正確步驟是什麼?

  1. 計算預測值和真實值之間的誤差

  2. 迭代跟新,直到找到最佳權重

  3. 把輸入傳入網路,得到輸出值

  4. 初始化隨機權重和偏差

  5. 對每一個產生誤差的神經元,改變相應的(權重)值以減小誤差

  A. 1, 2, 3, 4, 5

  B. 5, 4, 3, 2, 1

  C. 3, 2, 1, 5, 4

  D. 4, 3, 1, 5, 2

  答案:(D)

  選項D是正確的

  7

  假設你有輸入x,y,z,值分別是-2,5,-4。你有神經元q和f,函式分別為q = x + y,f = q * z。函式的圖示如下圖:

  F對x,y和z的梯度分別是?(提示:計算梯度,你必須找到df/dx, df/dy和df/dz)

  A. (-3,4,4)

  B. (4,4,3)

  C. (-4,-4,3)

  D. (3,-4,-4)

  答案:(C)

  選項C是正確的。

  8

  現在回顧之前的內容。我們學到了:

  - 大腦是有很多叫做神經元的東西構成,神經網路是對大腦的粗糙的數學表達。

  - 每一個神經元都有輸入、處理函式和輸出。

  - 神經元堆疊起來形成了網路,用作近似任何函式。

  - 為了得到最佳的神經網路,我們用梯度下降方法不斷更新模型

  給定上述關於神經網路的描述,什麼情況下神經網路模型被稱為深度學習模型?

  1. 加入更多層,使神經網路的深度增加

  2. 有維度更高的資料

  3. 當這是一個圖形識別的問題時

  4. 以上都不正確

  答案:(A)

  更多層意味著網路更深。沒有嚴格的定義多少層的模型才叫深度模型,目前如果有超過2層的隱層,那麼也可以及叫做深度模型。

  9

  神經網路可以認為是多個簡單函式的堆疊。假設我們想重複下圖所示的決策邊界

  使用兩個簡單的輸入h1和h2

  最終的等式是什麼?

  A. (h1 AND NOT h2) OR (NOT h1 AND h2)

  B. (h1 OR NOT h2) AND (NOT h1 OR h2)

  C. (h1 AND h2) OR (h1 OR h2)

  D. None of these

  答案:(A)

  你可以看見,巧妙地合併h1和h2可以很容易地得到複雜的等式。參見這本書的第九章。

  10

  卷積神經網路可以對一個輸入完成不同種類的變換(旋轉或縮放),這個表述正確嗎?

  1. 正確

  2. 錯誤

  答案:(B)

  資料預處理(也就是旋轉、縮放)步驟在把資料傳入神經網路之前是必要的,神經網路自己不能完成這些變換。

  11

  下列哪一種操作實現了和神經網路中Dropout類似的效果?

  A. Bagging

  B. Boosting

  C. 堆疊(Stacking)

  D. 以上都不正確

  答案:(A)

  Dropout可以認為是一種極端的Bagging,每一個模型都在單獨的資料上訓練,通過和其他模型對應引數的共享,模型的引數都進行了很強的正則化。參見這裡。

  12

  下列哪哪一項在神經網路中引入了非線性?

  1. 隨機梯度下降

  2. 修正線性單元(ReLU)

  3. 卷積函式

  4. 以上都不正確

  答案:(B)

  修正線性單元是非線性的啟用函式。

  13

  訓練神經網路過程中,損失函式在一些時期(Epoch)不再減小

  原因可能是:

  1. 學習率(Learning rate)太低

  2. 正則引數太大

  3. 卡在了局部最小值

  在你看來哪些是可能的原因?

  A. 1 and 2

  B. 2 and 3

  C. 1 and 3

  D. 都不是

  答案:(D)

  以上原因都可能造成這個結果。

  14

  下列哪項關於模型能力(model capacity)的描述是正確的?(指模型能近似複雜函式的能力)

  1. 隱層層數增加,模型能力增加

  2. Dropout的比例增加,模型能力增加

  3. 學習率增加,模型能力增加

  4. 都不正確

  答案:(A)

  只有選項A正確。

  15

  如果增加多層感知機(Multilayer Perceptron)的隱層層數,測試集的分類錯誤會減小。這種陳述正確還是錯誤?

  1. 正確

  2. 錯誤

  答案:(B)

  並不總是正確。過擬合可能會導致錯誤增加。

  16

  構建一個神經網路,將前一層的輸出和它自身作為輸入。

  下列哪一種架構有反饋連線?

  1. 迴圈神經網路

  2. 卷積神經網路

  3. 限制玻爾茲曼機

  4. 都不是

  答案:(A)

  選項A正確。

  17

  在感知機中(Perceptron)的任務順序是什麼?

  1. 初始化隨機權重

  2. 去到資料集的下一批(batch)

  3. 如果預測值和輸出不一致,改變權重

  4. 對一個輸入樣本,計算輸出值

  A. 1, 2, 3, 4

  B. 4, 3, 2, 1

  C. 3, 1, 2, 4

  D. 1, 4, 3, 2

  答案:(D)

  順序D是正確的。

  18

  假設你需要改變引數來最小化代價函式(cost function),可以使用下列哪項技術?

  A. 窮舉搜尋

  B. 隨機搜尋

  C. Bayesian優化

  D. 以上任意一種

  答案:(D)

  以上任意種技術都可以用來更新引數。

  19

  在哪種情況下,一階梯度下降不一定正確工作(可能會卡住)?

  A.

  B.

  C.

  D. 以上都不正確

  答案:(B)

  這是鞍點(Saddle Point)的梯度下降的經典例子。

  20

  訓練好的三層卷積神經網路的精確度(Accuracy)vs 引數數量(比如特徵核的數量)的圖示如下。

  從圖中趨勢可見,如果增加神經網路的寬度,精確度會增加到一個閾值,然後開始降低。這一現象的可能是什麼原因是造成的?

  1. 即便核數量(number of kernels)增加,只有一部分核被用於預測

  2. 當核數量增加,神經網路的預測功效(Power)降低

  3. 當核數量增加,其相關性增加,導致過擬合

  4. 以上都不正確

  答案:(C)

  如C選項指出的那樣,可能的原因是核之間的相關性。

  21

  假設我們有一個隱層神經網路,如上所示。隱層在這個網路中用於降維。現在我們並不是採用這個隱層,而是使用例如主成分分析(Principal Component Analysis, PCA)的降維技術。

  使用降維技術的網路與隱層網路總是有相同的輸出嗎?

  A.是

  B.否

  答案:(B)

  因為PCA用於相關特徵而隱層用於有預測能力的特徵

  22

  可以用神經網路對函式(y=1/x)建模嗎?

  A.是

  B.否

  答案:(A)

  選項A是正確的,因為啟用函式可以是互反函式

  23

  下列哪個神經網路結構會發生權重共享?

  A.卷積神經網路

  B.迴圈神經網路

  C.全連線神經網路

  D.選項A和B

  答案:(D)

  24

  批規範化是有幫助的,因為

  A.在將所有的輸入傳遞到下一層之前對其進行歸一化(更改)

  B.它將返回歸一化的權重平均值和標準差

  C.它是一種非常有效的反向傳播技術

  D.這些均不是

  答案:(A)

  要詳細瞭解批規範化,請參閱此視訊。

  25

  我們不是想要絕對零誤差,而是設定一個稱為貝葉斯(bayes)誤差(我們希望實現的誤差)的度量。使用貝葉斯(bayes)誤差的原因是什麼?

  A.輸入變數可能不包含有關輸出變數的完整資訊

  B.系統(建立輸入-輸出對映)可以是隨機的

  C.有限的訓練資料

  D.所有

  答案:(D)

  想在現實中實現準確的預測,是一個神話,所以我們的希望應該放在實現一個“可實現的結果”上。

  26

  在監督學習任務中,輸出層中的神經元的數量應該與類的數量(其中類的數量大於2)匹配。對或錯?

  A.正確

  B.錯誤

  答案:(B)

  它取決於輸出編碼。如果是獨熱編碼(one-hot encoding) 則正確。但是你可以有兩個輸出囊括四個類,並用二進位制值表示出來(00,01,10,11)。

  27

  在神經網路中,以下哪種技術用於解決過擬合?

  A.Dropout

  B.正則化

  C.批規範化

  D.所有

  答案:(D)

  所有的技術都可以用於處理過擬合。

  28

  Y = ax^2 + bx + c(二次多項式)

  這個方程可以用具有線性閾值的單個隱層的神經網路表示嗎?

  A.是

  B.否

  答案:(B)

  答案為否。因為簡單來說,有一個線性閾值限制神經網路就會使它成為一個相應的線性變換函式。

  29

  神經網路中的死神經元(dead unit)是什麼?

  A.在訓練任何其它相鄰單元時,不會更新的單元

  B.沒有完全響應任何訓練模式的單元

  C.產生最大平方誤差的單元

  D.以上均不符合

  答案:(A)

  30

  以下哪項是對早期停止的最佳描述?

  A.訓練網路直到達到誤差函式中的區域性最小值

  B.在每次訓練期後在測試資料集上模擬網路,當泛化誤差開始增加時停止訓練

  C.在中心化權重更新中新增一個梯度下降加速運算元,以便訓練更快地收斂

  D.更快的方法是反向傳播,如‘Quickprop’演算法

  答案:(B)

  31

  如果我們使用的學習率太大該怎麼辦?

  A.網路將收斂

  B.網路將無法收斂

  C.不確定

  答案:(B)

  選項B正確,因為錯誤率會變得不穩定並且達到非常大的值

  32

  圖1所示的網路用於訓練識別字符H和T,如下所示:

  網路的輸出是什麼?

  A.

  B.

  C.

  D.可能是A或B,取決於神經網路的權重

  答案:(D)

  不知道神經網路的權重和偏差是什麼,則無法評論它將會給出什麼樣的輸出。

  33

  假設在ImageNet資料集(物件識別資料集)上訓練卷積神經網路。然後給這個訓練模型一個完全白色的影象作為輸入。這個輸入的輸出概率對於所有類都是相等的。對或錯?

  A.正確

  B.錯誤

  答案:(B)

  將存在一些不為白色畫素啟用的神經元作為輸入,所以類不會相等。

  34

  當在卷積神經網路中新增池化層(pooling layer)時,變換的不變性保持穩定,這樣的理解是否正確?

  A.正確

  B.錯誤

  答案:(A)

  使用池化時會導致出現不變性。

  35

  Q35.當資料太大而不能同時在RAM中處理時,哪種梯度技術更有優勢?

  A.全批量梯度下降(Full Batch Gradient Descent )

  B.隨機梯度下降(Stochastic Gradient Descent)

  答案:(B)

  36

  該圖表示,使用每個訓練時期的啟用函式,-訓練有四個隱藏層的神經網路梯度流。神經網路遭遇了梯度消失問題。

  下列哪項正確?

  A.隱藏層1對應於D,隱藏層2對應於C,隱藏層3對應於B,隱藏層4對應於A

  B.隱藏層1對應於A,隱藏層2對應於B,隱藏層3對應於C,隱藏層4對應於D

  答案:(A)

  這是對消失梯度描述的問題。由於反向傳播演算法進入起始層,學習能力降低。

  37

  對於分類任務,我們不是將神經網路中的隨機權重初始化,而是將所有權重設為零。下列哪項是正確的?

  A.沒有任何問題,神經網路模型將正常訓練

  B.神經網路模型可以訓練,但所有的神經元最終將識別同樣的事情

  C.神經網路模型不會進行訓練,因為沒有淨梯度變化

  D.這些均不會發生

  答案:(B)

  38

  開始時有一個停滯期,這是因為神經網路在進入全域性最小值之前陷入區域性最小值。

  為了避免這種情況,下面的哪個策略有效?

  A.增加引數的數量,因為網路不會卡在區域性最小值處

  B.在開始時把學習率降低10倍,然後使用梯度下降加速運算元(momentum)

  C.抖動學習速率,即改變幾個時期的學習速率

  D.以上均不是

  答案:(C)

  選項C可以將陷於區域性最小值的神經網路提取出來。

  39

  對於影象識別問題(比如識別照片中的貓),神經網路模型結構更適合解決哪類問題?

  A.多層感知器

  B.卷積神經網路

  C.迴圈神經網路

  D.感知器

  答案:(B)

  卷積神經網路將更好地適用於影象相關問題,因為考慮到影象附近位置變化的固有性質。

  40

  假設在訓練時,你遇到這個問題。在幾次迭代後,錯誤突然增加。

  您確定資料一定有問題。您將資料描繪出來,找到了原始資料有點偏離,這可能是導致出現問題的地方。

  你將如何應對這個挑戰?

  A.歸一化

  B.應用PCA然後歸一化

  C.對資料進行對數變換

  D.以上這些都不符合

  答案:(B)

  首先您將相關的資料去掉,然後將其置零。

  41

  以下哪項是神經網路的決策邊界?

  A) B

  B) A

  C) D

  D) C

  E) 以上所有

  答案:(E)

  神經網路被稱為通用函式擬合器(universal function approximator),所以它理論上可以表示任何決策邊界。

  42

  在下面的圖中,我們觀察到錯誤有許多“起伏”,我們該為此而擔心嗎?

  A.是,因為這意味著神經網路的學習速率有問題。

  B.否,只要訓練和驗證錯誤累積減少,我們就不必擔心。

  答案:(B)

  選項B是正確的,為了減少這些“起伏”,可以嘗試增加批尺寸(batch size)

  43

  什麼是影響神經網路的深度選擇的因素?

  1.神經網路的型別,例如:多層感知機(Multi-Layer Perceptrons, MLP),卷積神經網路(Convolutional Neural Networks, CNN)

  2.輸入資料

  3.計算能力,即硬體和軟體能力

  4.學習率

  5.輸出函式對映

  A. 1, 2, 4, 5

  B. 2, 3, 4, 5

  C. 1, 3, 4, 5

  D. 以上均是

  答案:(D)

  所有上述因素對於選擇神經網路模型的深度都是重要的。

  44

  考慮這種情況:您嘗試解決的問題有少量的資料。幸運的是,您有一個之前訓練過的針對類似問題的神經網路模型。您將使用以下哪種方法來使用該預先訓練的模型?

  A.對於新的資料集重新訓練模型

  B.在每一層評估模型如何執行,只選擇其中的一些

  C.只微調最後幾層

  D.凍結除最後一層之外的所有層,重新訓練最後一層

  答案:(D)

  如果資料集大部分相似,最好的方法是隻訓練最後一層,因為前面的所有層都用於特徵提取。

  45

  增大卷積核的大小必然會提高卷積神經網路的效能。

  A.正確

  B.錯誤

  答案:(B)

  增加核函式的大小不一定會提高效能。這個問題在很大程度上取決於資料集。

相關推薦

考察深度學習基礎知識45題目答案

1   神經網路模型(Neural Network)因受人腦的啟發而得名。   神經網路由許多神經元(Neuron)組成,每個神經元接受一個輸入,處理它並給出一個輸出。這裡是一個真實的神經元的圖解表示。下列關於神經元的陳述中哪一個是正確的? 一個神經元只有

碉堡了!程式設計師用深度學習寫了個老闆探測器原始碼

筆者介紹:姜雪偉,IT公司技術合夥人,IT高階講師,CSDN社群專家,特邀編輯,暢銷書作者,國家專利發明人;已出版書籍:《手把手教你架構3D遊戲引擎》電子工業出版社和《實戰核心技術詳解》電子工業出版社等。當今,人工智慧和深度學習得到了快速發展,由於大資料的存在,它的發展也變的

厲害了,利用深度學習開發人臉識別老闆探測器原始碼

原來知乎也會犯這樣問題: 原文地址: http://www.techug.com/hironsan-bosssensor?utm_source=tuicool&utm_medium=referral 知乎地址:只是題目不一樣 https://zhuanlan.zhi

實戰 | 基於深度學習模型VGG的影象識別程式碼

def train():    data_dim = 3 * 32 * 32    class_dim = 10    image = paddle.layer.data(        name="image", type=paddle.data_type.dense_vector(data_dim))  

經典基礎C++筆試題2答案

1. C中static有什麼作用?(1)隱藏。 當我們同時編譯多個檔案時,所有未加static字首的全域性變數和函式都具有全域性可見性,故使用static在不同的檔案中定義同名函式和同名變數,而不必擔心命名衝突。(2)static的第二個作用是保持變數內容的持久。儲存在靜態資

深度學習入門筆記系列 ( 二 )——基於 tensorflow 的一些深度學習基礎知識

本系列將分為 8 篇 。今天是第二篇 。主要講講 TensorFlow 框架的特點和此係列筆記中涉及到的入門概念 。 1.Tensor 、Flow 、Session 、Graphs TensorFlow 從單詞上可以分成 Tensor 和 Flow 兩個單詞 。Ten

乾貨 | 45CSS基礎面試題答案

  1、 介紹一下標準的CSS的盒子模型?與低版本IE的盒子模型有什麼不同的? 標準盒子模型:寬度=內容的寬度(content)+ border + padding + margin 低版本IE盒子模型:寬度=內容寬度(content+border+padding)+ mar

Android學習基礎知識九—資料儲存持久化技術

  資料持久化是將那些記憶體中的瞬時資料儲存到儲存裝置,保證即使在手機或電腦關機的情況下,這些資料仍然不會丟失。   Android系統中主要提供了3種方式用於簡單地實現資料持久化功能:檔案儲存、SharedPreference儲存、資料庫儲存。除了這三種方式外,還可以將資料儲存在手機的SD卡中,不過相對比

Android學習基礎知識九 — 資料儲存持久化技術之SQLite資料庫儲存

  前面一講介紹了資料持久化技術的前兩種:檔案儲存、SharedPreferences儲存。下面介紹第三種技術:SQLite資料庫儲存 一、SQLite資料庫儲存   SQLite資料庫是一款輕量級的關係型資料庫,它的運算速度非常快,佔用資源很少,通常只需要幾百KB的記憶體就足夠了,因而特別適合在移動裝置

Android學習基礎知識九 — 資料儲存持久化技術之使用LitePal操作資料庫

  上一節學習了使用SQLiteDatabase來操作SQLite資料庫的方法,接下來我們開始接觸第一個開源庫:LitePal。LitePal是一款開源的Android資料庫框架,它採用了物件關係對映(ORM)的模式,並將我們平時開發最常用到的一些資料庫功能進行了封裝,使得不用編寫一行SQL語句就可以完成各種

吳恩達Coursera深度學習課程 DeepLearning.ai 提煉筆記1-2-- 神經網路基礎

以下為在Coursera上吳恩達老師的DeepLearning.ai課程專案中,第一部分《神經網路和深度學習》第二週課程部分關鍵點的筆記。筆記並不包含全部小視訊課程的記錄,如需學習筆記中捨棄的內容請至Coursera 或者 網易雲課堂。同時在閱讀以下

Coursera深度學習課程 DeepLearning.ai 提煉筆記1-2-- 神經網路基礎

以下為在Coursera上吳恩達老師的DeepLearning.ai課程專案中,第一部分《神經網路和深度學習》第二週課程部分關鍵點的筆記。筆記並不包含全部小視訊課程的記錄,如需學習筆記中捨棄的內容請至Coursera 或者 網易雲課堂。同時在閱讀以下筆記之前,

深度學習】批歸一化Batch Normalization

學習 src 試用 其中 put min 平移 深度 優化方法 BN是由Google於2015年提出,這是一個深度神經網絡訓練的技巧,它不僅可以加快了模型的收斂速度,而且更重要的是在一定程度緩解了深層網絡中“梯度彌散”的問題,從而使得訓練深層網絡模型更加容易和穩定。所以目前

深度學習RNN實現股票預測實戰資料、程式碼

背景知識最近再看一些量化交易相關的材料,偶然在網上看到了一個關於用RNN實現股票預測的文章,出於好奇心把文章中介紹的程式碼在本地跑了一遍,發現可以work。於是就花了兩個晚上的時間學習了下程式碼,順便把

50CSS基礎面試題答案

作者:劉寧Leo https://segmentfault.com/a/1190000013325778https://mp.weixin.qq.com/s/-s9U99TyH_SnMCCIDe1tMA1 介紹一下標準的CSS的盒子模型?與低版本IE的盒子模型有什麼不同的?標

吳恩達Coursera深度學習課程 DeepLearning.ai 提煉筆記5-1-- 迴圈神經網路

Ng最後一課釋出了,撒花!以下為吳恩達老師 DeepLearning.ai 課程專案中,第五部分《序列模型》第一週課程“迴圈神經網路”關鍵點的筆記。 同時我在知乎上開設了關於機器學習深度學習的專欄收錄下面的筆記,以方便大家在移動端的學習。歡迎關

20HTML基礎面試題答案

以下是我整理的一些HTML的基礎面試體,並自己整理了答案。https://segmentfault.com/a/11900000133118801 DOCTYPE有什麼作用?標準模式與混雜模式如何區分?它們有何意義?告訴瀏覽器使用哪個版本的HTML規範來渲染文件。DOCTYP

吳恩達Coursera深度學習課程 DeepLearning.ai 提煉筆記5-3-- 序列模型和注意力機制

完結撒花!以下為吳恩達老師 DeepLearning.ai 課程專案中,第五部分《序列模型》第三週課程“序列模型和注意力機制”關鍵點的筆記。 同時我在知乎上開設了關於機器學習深度學習的專欄收錄下面的筆記,以方便大家在移動端的學習。歡迎關注我的知

深度學習與卷積神經網路直觀理解

基本上在輸入影象中,如果有一個形狀是類似於這種濾波器的代表曲線,那麼所有的乘積累加在一起會導致較大的值!現在讓我們看看當我們移動我們的過濾器時會發生什麼。可以看到結果值是0哦,為什麼?還不明白麼,因為耳朵的邊緣和剛剛尾股部曲線太不同了。 這樣的多個濾波器就可以在大量資料的訓練下得到大量特徵了

吳恩達Coursera深度學習課程 DeepLearning.ai 提煉筆記1-3-- 淺層神經網路

以下為在Coursera上吳恩達老師的DeepLearning.ai課程專案中,第一部分《神經網路和深度學習》第三週課程“淺層神經網路”部分關鍵點的筆記。筆記並不包含全部小視訊課程的記錄,如需學習筆記中捨棄的內容請至Coursera 或者 網易雲課堂