1. 程式人生 > >【深度學習概論】什麼是神經網路

【深度學習概論】什麼是神經網路

深度學習指的是訓練神經網路

  所謂訓練就是和正確的結果對比,然後不斷更正有操作的偏差。就像且土豆絲,不斷調整自己下刀的厚度,既不能太細,也不能切成塊。

什麼是神經網路

一個簡單的神經網路。

  現在假設我們有一些關於房屋的資料集,這個資料集裡面包含了房屋的面積以及房價。我們希望從房屋的面積大小來預測該房屋的價格(面積->價格)。
  如下圖所示,橫軸代表房屋的面積大小(size of house),縱軸代表房屋的價格(price of house),紅叉代表房屋。很明顯可以看出,隨著面積的變大,房子的價格也隨著增長,近似線性關係。於是,我們可以使用一條一元一次方程,來近似的描述房屋的面積和價格關係。

藍色的線條表示我們的函式,因為房屋的面積不能是負數,所以,從座標原點開始,有一段直線的值為0。這個函式也叫做修正線性單元(Rectified linear unit,ReLU)
  也就是說,我們輸入一個房屋的面積,經過一個處理的過程(比如函式計算),得出一個輸出的結果,房屋的價格。我們把這樣一個接受輸入並且能夠輸出一個對應的結果的單元,叫做神經單元。神經網路就是一系列神經單元的組合堆疊。現在,我們這個神經網路只有一個神經單元。

稍微大一點的神經網路

  事實上,從面積直接通過一個函式計算出房價,明顯是不合理的。影響房價的因素有很多,比如房間的個數(bedrooms),當地的郵政編碼(Eip Code),當地的經濟(wealth)。如下圖所示,左側藍色方框的內容,是可能影響房價的因素。

  圖中的每一個圓圈都表示一個神經單元。從房屋的面積和房間的個數,可以推出購買家庭的大小;從郵編號碼可以推出當地的步行化程度(描述地區繁榮度的一個指標),從郵編和當地經濟可以推出學校的教學水平。注意:以上的推出過程,都是指經過一個神經單元的計算,這也符合上文所說的“神經網路就是一系列神經單元的組合堆疊”。然後,還有另外的一個神經單元,這個單元可以對輸入的家庭大小(family size)、步行化程度(walkability)、學校的教學能力(school quality)等引數,輸出房屋的價格。
  那麼,有一個問題是,我們為什麼不直接通過輸入的四個引數(藍色方框)一步到位的計算出最終的房價呢?其實是可以的。之所以不這麼做,是因為我們希望每一個神經單元做盡量簡單的工作,通過這些不同的神經單元的組合堆疊,從而得出一個更加準確的預測結果,同時,也提高了每一個神經單元的可重用性。
  現在,我們有了一個稍微大一點的神經網路了。只需要輸入四個引數,就能預測出房價的多少,中間的過程全部是自動完成的。

一個基本的神經網路

  在上面的例子中,我們每一個神經節點都是以上一層節點若干個輸出作為輸入。實際上,我們在設計神經節點的時候,每一個神經節點的輸入都同時來自上一層節點所有的特徵。如下圖所示,第一層的三個節點,每一個節點都把前面的四個特徵作為輸入,第二層只有一個節點,這個節點也把第一層的所有節點的輸出作為輸入。

這樣,我們就構建了一個基本的神經網路。這個神經網路有若干層,每一層都是由若干個神經單元組成,每一層每一個神經單元的輸入,是上一層所有的神經單元的輸出。
  注意:以上介紹的是構建神經網路,預設所有的節點都是已經訓練完成(引數調整到最佳)。這裡還沒有加入訓練神經網路的過程,所以看起來,和簡單的函式計算沒有什麼區別。下面要做的,就是在這個神經網路進行實際應用之前,如何訓練它。

相關推薦

深度學習概論什麼是神經網路

深度學習指的是訓練神經網路   所謂訓練就是和正確的結果對比,然後不斷更正有操作的偏差。就像且土豆絲,不斷調整自己下刀的厚度,既不能太細,也不能切成塊。 什麼是神經網路 一個簡單的神經網路。   現在假設我們有一些關於房屋的資料集,這個資料集裡面

深度學習系列卷積神經網路CNN原理詳解(一)——基本原理

轉自:https://www.cnblogs.com/charlotte77/p/7759802.html 上篇文章我們給出了用paddlepaddle來做手寫數字識別的示例,並對網路結構進行到了調整,提高了識別的精度。有的同學表示不是很理解原理,為什麼傳統的機

深度學習技術卷積神經網路常用啟用函式總結

本文記錄了神經網路中啟用函式的學習過程,歡迎學習交流。 神經網路中如果不加入啟用函式,其一定程度可以看成線性表達,最後的表達能力不好,如果加入一些非線性的啟用函式,整個網路中就引入了非線性部分,增加了網路的表達能力。目前比較流行的啟用函式主要分為以下7種:

深度學習筆記(二)基於MNIST資料集的神經網路實驗

一、介紹 MNIST(Mixed National Institute of Standards and Technology database)是網上著名的公開資料庫之一,是一個入門級的計算機視覺資料集,它包含龐大的手寫數字圖片。 無論我們學習哪門程式語言

深度學習理論一文看懂卷積神經網路

本文主要介紹了神經網路中的卷積神經網路,適合初學者閱讀。概述深度學習和人工智慧是 2016 年的熱詞;2017 年,這兩個詞愈發火熱,但也更加容易混淆。我們將深入深度學習的核心,也就是神經網路。大多數神經網路的變體是難以理解的,並且它們的底層結構元件使得它們在理論上和圖形上是

學習筆記 神經網路簡介

之前我們其實已經寫過了,這次既然原文單獨列了一章,我們也來再寫一次好了。原文希望我們把RMSE壓到110以下,我這裡驗證集的RMSE 115左右,因隨機數種子最低降到過112左右,在設定好種子的情況下seed(1) 驗證集的rmse在116左右。 上次我們用xs1,xs2,

讀書報告--01神經網路基礎學習

一、感知器 1.神經網路和感知器 神經網路結構包含輸入層、隱藏層(可以有多層)、輸出層,如下圖所示 其中每個神經元是一個感知器,感知器的結構組成部分:輸入權值、啟用函式、輸出 ps:啟用函式可以有很多種選擇,而感知器的輸出由 y=f(w*x+b)來計算 感知器結構如下圖:  

讀書報告--02神經網路基礎學習

1.線性單元 定義:使用一個可導的線性函式來替代感知器的階躍函式,這種感知器就叫做線性單元 個人理解:感知器還是那個感知器,只是啟用函式變成一個可導的線性函式:如f(x)=x 如下圖:線性單元與前面所學的感知器(使用階躍函式)的對比,只有啟用函式改為”可導的線性函式“ 2.監督學習和無監督學習的概

讀書報告--03神經網路基礎學習

1.神經元 神經元和感知器本質上是一樣的,只不過我們說感知器的時候,它的啟用函式是階躍函式;而當我們說神經元時,啟用函式往往選擇為sigmoid函式或tanh函式 2.神經網路的訓練 現在,我們需要知道一個神經網路的每個連線上的權值是如何得到的。我們可以說神經網路是一個模型,那麼這些權值就是模型的引數,

讀書報告彙總 讀書報告--01神經網路基礎學習 讀書報告--02神經網路基礎學習 讀書報告--03神經網路基礎學習 讀書報告--04神經網路基礎學習

以下是本人神經網路基礎的學習過程,邊學邊記,包含對已學知識的總結概況和部分個人見解,目前7篇文獻才學習到卷積神經網路和迴圈神經網路的理論基礎上 對於卷積神經網路的訓練還在研究學習中,希望能夠掌握透裡面的知識,學習完後再對基礎的數字識別案例進行實踐,下個星期再放上其餘的讀書報告 【讀書報告--01】神經網路

深度學習系列用PaddlePaddle和Tensorflow實現經典CNN網絡GoogLeNet

mage eat oba card fin filter mod 一個 lec   前面講了LeNet、AlexNet和Vgg,這周來講講GoogLeNet。GoogLeNet是由google的Christian Szegedy等人在2014年的論文《Going Deepe

深度學習系列用PaddlePaddle和Tensorflow實現GoogLeNet InceptionV2/V3/V4

targe 所有 conn ride 出了 prev 縮減 tro 例如   上一篇文章我們引出了GoogLeNet InceptionV1的網絡結構,這篇文章中我們會詳細講到Inception V2/V3/V4的發展歷程以及它們的網絡結構和亮點。 GoogLeNet I

深度學習系列一起來參加百度 PaddlePaddle AI 大賽吧!

人工 領域 而且 標註數據 sea nload 類型 指定路徑 ear   寫這個系列寫了兩個月了,對paddlepaddle的使用越來越熟悉,不過一直沒找到合適的應用場景。最近百度搞了個AI大賽,據說有四個賽題,現在是第一個----綜藝節目精彩片段預測 ,大家可以去檢測一

深度學習--神經網絡中的調優

flow 初始 clas 根據 叠代 pan 容易 組合 語音 一、前述 調優對於模型訓練速度,準確率方面至關重要,所以本文對神經網絡中的調優做一個總結。 二、神經網絡超參數調優 1、適當調整隱藏層數對於許多問題,你可以開始只用一個隱藏層,就可以獲得不錯的結果,比如對於復雜

吳恩達深度學習工程師 04.卷積神經網絡 第三周目標檢測 (1)基本的對象檢測算法

元素 需要 有關 卷積 訓練 特定 步長 來看 選擇 該筆記介紹的是《卷積神經網絡》系列第三周:目標檢測(1)基本的對象檢測算法 主要內容有: 1.目標定位 2.特征點檢測 3.目標檢測 目標定位 使用算法判斷圖片中是不是目標物體,如果是還要再圖片中標出其位置並

深度學習--Windows 64下tensorflow-gpu安裝到應用

archive dev upgrade eight ins 自己的 技術 tro tar 一、前述 一直以為自己的筆記本不支持tensflow-gpu的運行,結果每次運行模型都要好久。偶然間一個想法,想試試自己的筆記本,結果竟然神奇的發現能用GPU。於是分享一下安裝步驟.

深度學習---CNN和RNN結合與對比,實例講解

開頭 問答 16px 結合 觀察 反向 -c style 圖像 一、前述 CNN和RNN幾乎占據著深度學習的半壁江山,所以本文將著重講解CNN+RNN的各種組合方式,以及CNN和RNN的對比。 二、CNN與RNN對比 1、CNN卷積神經網絡與RNN遞歸神經網絡直觀圖

使用深度學習的CNN神經網路破解Captcha驗證碼

樣本資料的生成與處理: 我們先來看看mnist(一個手寫體數字圖片的資料集,有55000張0-9的手寫體數字的圖片)中圖片和圖片標籤的資料形式: 已知mnist資料集中的每張圖片是28x28畫素的灰度影象。每張圖片上是一個單獨的手寫體數字。 程式碼如下: from tensorf

深度學習基礎深度學習》李巨集毅

重要知識點: 激勵函式(activation function) softmax layer Lecture 1: Introduction of Deep Learning 1. 深度學習的步驟 機器學習的步驟: Step 1: 定義一個函式集合(define

深度學習 --- 徑向基神經網路RBF詳解

上一節我們基本上打開了深度學習的大門,其實下一步應該是卷積神經網路即CNN了,但是呢卷積神經網路的最後一層採用的是徑向基神經網路,為了以後到CNN不用再費力氣將RBF和保持CNN的整體性和連貫性,因此這裡我們系統的學習一下,講解之前我們還是先好好回顧我們的總體學習思路,首先我們從BP神經網路開始