1. 程式人生 > >tensorflow學習之路-----卷積神經網絡個人總結

tensorflow學習之路-----卷積神經網絡個人總結

16px 給定 span 參數 隱藏 最大 ros 計算 softmax

卷積神經網絡大總結(個人理解)

神經網絡

1、概念:從功能他們模仿真實數據

2、結構:輸入層、隱藏層、輸出層。其中隱藏層要有的參數:權重、偏置、激勵函數、過擬合

3、功能:能通過模仿,從而學到事件

其中過擬合:電腦太過於自信,想把所有的數據都模擬下來。但是這並不符合我們的實際的需求

激勵函數:激活某一些參數

卷積神經網絡:

1、一般的結構:輸入數據、卷積層、池化層、卷積層、池化層、全連接層、全連接層、誤差分析、參數優化、顯示精確度

2、每一個層的要求:

輸入數據:類型:[-1(表示能接受任意張圖片),圖片的長度,圖片的寬度、圖片的灰度級]

卷積層 :fittler濾波器:意義:掃描圖片,得到一個數值。類型:[卷積核的長度,卷積核的寬度,圖片的灰度值,特征映射值(厚度)]其中的1,1是給定。卷積函數:輸入數據、濾波器、步長(類型[1,圖片左右移動的步數,圖片上下移動的步數,1],padding=”掃描的方式”

卷積得到的數據,可以用tf.nn.Rule的激勵函數激勵

池化層:池化函數的參數:卷積層1激勵後的數據,池化窗口的大小(shape[1,長,寬,1],步長(shape[1,向左右移動的步數,上下移動的步數,1],padding=“掃描的方式”

卷積層2:參數個數一樣,但是輸入的數據是池化1輸出的數據,卷積核我們也可以定義,其他的都一樣

池化層:變化最大的是輸入的數據數卷積層2輸出的數據

全連接神經元:輸入的數據是池化2輸出的數據,要記得重新設定類型。隱藏層:權重,偏置。。。隱藏層輸出的數據可以過擬合和tf.nn.relu激勵函數

全連接神經元2:類似全連接神經元。但是這一層的輸出數據要用到tf.nn.softmax激勵函數

誤差分析、優化:cross_entropy = tf.reduce_mean(-tf.reduce_sum(y_data * tf.log(prediction),

reduction_indices=[1]))

train_step = tf.train.AdamOptimizer(1e-4).minimize(cross_entropy)交叉商

計算精確值函數

其他:

1、其中每一層的卷積層和池化層都是講特征映射的更加詳細,具體有用

2、池化層在實際應用中用來抵抗輸入的輕微形變或者位移

3、全連通層的工作原理是根據之前其它層的輸出,檢測哪些特征與特定的 類別相匹

tensorflow學習之路-----卷積神經網絡個人總結