1. 程式人生 > >3.1 Tensorflow: 批標準化(Batch Normalization)

3.1 Tensorflow: 批標準化(Batch Normalization)

BN 簡介

背景

批標準化(Batch Normalization )簡稱BN演算法,是為了克服神經網路層數加深導致難以訓練而誕生的一個演算法。根據ICS理論,當訓練集的樣本資料和目標樣本集分佈不一致的時候,訓練得到的模型無法很好的泛化。

而在神經網路中,每一層的輸入在經過層內操作之後必然會導致與原來對應的輸入訊號分佈不同,,並且前層神經網路的增加會被後面的神經網路不對的累積放大。這個問題的一個解決思路就是根據訓練樣本與目標樣本的比例對訓練樣本進行一個矯正,而BN演算法(批標準化)則可以用來規範化某些層或者所有層的輸入,從而固定每層輸入訊號的均值與方差。

使用方法

批標準化一般用在非線性對映(啟用函式)之前,對y= Wx + b

進行規範化,是結果(輸出訊號的各個維度)的均值都為0,方差為1,讓每一層的輸入有一個穩定的分佈會有利於網路的訓練

在神經網路收斂過慢或者梯度爆炸時的那個無法訓練的情況下都可以嘗試

優點

  • 減少了引數的人為選擇,可以取消dropout和L2正則項引數,或者採取更小的L2正則項約束引數
  • 減少了對學習率的要求
  • 可以不再使用區域性響應歸一化了,BN本身就是歸一化網路(區域性響應歸一化-AlexNet)
  • 更破壞原來的資料分佈,一定程度上緩解過擬合

計算公式

這裡寫圖片描述

其過程類似於歸一化但是又不同.

參考

BN原理的詳細參考建議:BN學習筆記:點選這裡

BN with TF

組成部分

BN在TensorFlow中主要有兩個函式:tf.nn.moments

以及tf.nn.batch_normalization,兩者需要配合使用,前者用來返回均值和方差,後者用來進行批處理(BN)

tf.nn.moments

TensorFlow中的函式

moments(
    x,
    axes,
    shift=None,
    name=None,
    keep_dims=False
)

  Returns:
    Two `Tensor` objects: `mean` and `variance`.

其中引數 x 為要傳遞的tensor,axes是個int陣列,傳遞要進行計算的維度,返回值是兩個張量: mean and variance

,我們需要利用這個函式計算出BN演算法需要的前兩項,公式見前面的原理部分
參考程式碼如下:

# 計算Wx_plus_b 的均值與方差,其中axis = [0] 表示想要標準化的維度
img_shape= [128, 32, 32, 64]
Wx_plus_b = tf.Variable(tf.random_normal(img_shape))
axis = list(range(len(img_shape)-1)) # [0,1,2] 
wb_mean, wb_var = tf.nn.moments(Wx_plus_b, axis)

執行結果,因為初始的資料是隨機的,所以每次的執行結果並不一致:

*** wb_mean ***
[  1.05310767e-03   1.16801530e-03   4.95071337e-03  -1.50891789e-03
  -2.95298663e-03  -2.07848335e-03  -3.81800164e-05  -3.11688287e-03
   3.26496479e-03  -2.68524280e-04  -2.08893605e-03  -3.05374013e-03
   1.43721583e-03  -3.61034041e-03  -3.03616724e-03  -1.10225368e-03
   6.14093244e-03  -1.37914100e-03  -1.13333750e-03   3.53972078e-03
  -1.48577197e-03   1.04353309e-03   3.27868876e-03  -1.40919012e-03
   3.09609319e-03   1.98166977e-04  -5.25404140e-03  -6.03850756e-04
  -1.04614964e-03   2.90997117e-03   5.78491192e-04  -4.97420435e-04
   3.03052540e-04   2.46527663e-04  -4.70882794e-03   2.79057049e-03
  -1.98713480e-03   4.13944060e-03  -4.80978837e-04  -3.90357309e-04
   9.11145413e-04  -4.80215019e-03   6.26503082e-04  -2.76877987e-03
   3.79961479e-04   5.36157866e-04  -2.12549698e-03  -5.41620655e-03
  -1.93006988e-03  -8.54363534e-05   4.97094262e-03  -2.45843385e-03
   4.16610064e-03   2.44746287e-03  -4.15429426e-03  -6.64028199e-03
   2.56747357e-03  -1.63110415e-03  -1.53350492e-03  -7.66420271e-04
  -1.81624549e-03   2.16634944e-03   1.74984348e-03  -4.17272677e-04]
*** wb_var ***
[ 0.99813616  0.9983741   1.00014114  1.0012747   0.99496585  1.00168002
  1.00439012  0.99607879  1.00104094  0.99969071  1.01024568  0.99614906
  1.00092578  0.99977148  1.00447345  0.99580348  0.99797201  0.99119431
  1.00352168  0.9958936   0.99980813  1.00598109  1.00050855  0.99667317
  0.99352562  1.0036608   0.99794698  0.99324805  0.99862647  0.99930048
  0.99658304  1.00278556  0.99731135  1.00254881  0.99352133  1.00371397
  1.00258803  1.00388253  1.00404358  0.99454063  0.99434716  1.00087452
  1.00818515  1.00019705  0.99542576  1.00410056  0.99707311  1.00215423
  1.00199771  0.99394888  0.9973973   1.00197709  0.99835181  0.99944276
  0.99977624  0.99892712  0.99871159  0.99913275  1.00471914  1.00210452
  0.99568754  0.99547535  0.99983472  1.00523198]**重點內容**

我們已經假設圖片的shape[128, 32, 32, 64],它的運算方式如圖:

tf.nn.moments()的運算方式

tf.nn.batch_normalization

TensorFlow中的函式

batch_normalization(
    x,
    mean,
    variance,
    offset,
    scale,
    variance_epsilon,
    name=None
)

其中x為輸入的tensor,mean,variance由moments()求出,而offset,scale一般分別初始化為0和1,variance_epsilon一般設為比較小的數字即可,參考程式碼如下:

scale = tf.Variable(tf.ones([64]))
offset = tf.Variable(tf.zeros([64]))
variance_epsilon = 0.001
Wx_plus_b = tf.nn.batch_normalization(Wx_plus_b, wb_mean, wb_var, offset, scale, variance_epsilon)

# 根據公式我們也可以自己寫一個
Wx_plus_b1 = (Wx_plus_b - wb_mean) / tf.sqrt(wb_var + variance_epsilon)
Wx_plus_b1 = Wx_plus_b1 * scale + offset
# 因為底層運算方式不同,實際上自己寫的最後的結果與直接呼叫tf.nn.batch_normalization獲取的結果並不一致

執行結果,因為初始的資料是隨機的,所以每次的執行結果並不一致,但是本例子中的計算差異始終存在:

# 這裡我們只需比較前兩的矩陣即可發現存在的數值差異
[[[[  3.32006335e-01  -1.00865233e+00   4.68401730e-01 ...,
     -1.31523395e+00  -1.13771069e+00  -2.06656289e+00]
   [  1.92613199e-01  -1.41019285e-01   1.03402412e+00 ...,
      1.66336447e-01   2.34183773e-01   1.18540943e+00]
   [ -7.14844346e-01  -1.56187916e+00  -8.09686005e-01 ...,
     -4.23679769e-01  -4.32125211e-01  -3.35091174e-01]
   ..., 

[[[[  3.31096262e-01  -1.01013660e+00   4.63186830e-01 ...,
     -1.31972826e+00  -1.13898540e+00  -2.05973744e+00]
   [  1.91642866e-01  -1.42231822e-01   1.02848673e+00 ...,
      1.64460197e-01   2.32336998e-01   1.18214881e+00]
   [ -7.16206789e-01  -1.56353664e+00  -8.14172268e-01 ...,
     -4.26598638e-01  -4.33694094e-01  -3.33635926e-01]

完整的程式碼

# - * - coding: utf - 8 -*-
#
# 作者:田豐(FontTian)
# 建立時間:'2017/8/2'
# 郵箱:[email protected]
# CSDN:http://blog.csdn.net/fontthrone

import tensorflow as tf
import os

os.environ['TF_CPP_MIN_LOG_LEVEL'] = '2'
# 計算Wx_plus_b 的均值與方差,其中axis = [0] 表示想要標準化的維度
img_shape = [128, 32, 32, 64]
Wx_plus_b = tf.Variable(tf.random_normal(img_shape))
axis = list(range(len(img_shape) - 1))
wb_mean, wb_var = tf.nn.moments(Wx_plus_b, axis)

scale = tf.Variable(tf.ones([64]))
offset = tf.Variable(tf.zeros([64]))
variance_epsilon = 0.001
Wx_plus_b = tf.nn.batch_normalization(Wx_plus_b, wb_mean, wb_var, offset, scale, variance_epsilon)

Wx_plus_b1 = (Wx_plus_b - wb_mean) / tf.sqrt(wb_var + variance_epsilon)
Wx_plus_b1 = Wx_plus_b1 * scale + offset

with tf.Session() as sess:
    tf.global_variables_initializer().run()

    print('*** wb_mean ***')
    print(sess.run(wb_mean))
    print('*** wb_var ***')
    print(sess.run(wb_var))
    print('*** Wx_plus_b ***')
    print(sess.run(Wx_plus_b))
    print('**** Wx_plus_b1 ****')
    print(sess.run(Wx_plus_b1))

相關推薦

3.1 Tensorflow: 標準化Batch Normalization

BN 簡介 背景 批標準化(Batch Normalization )簡稱BN演算法,是為了克服神經網路層數加深導致難以訓練而誕生的一個演算法。根據ICS理論,當訓練集的樣本資料和目標樣本集分佈不一致的時候,訓練得到的模型無法很好的泛化。 而在神經網路中,

標準化Batch NormalizationTensorflow實現Batch Normalization

批標準化(Batch Normalization): 論文:Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift 論文地址:https://arxiv.or

【深度學習】歸一化Batch Normalization

學習 src 試用 其中 put min 平移 深度 優化方法 BN是由Google於2015年提出,這是一個深度神經網絡訓練的技巧,它不僅可以加快了模型的收斂速度,而且更重要的是在一定程度緩解了深層網絡中“梯度彌散”的問題,從而使得訓練深層網絡模型更加容易和穩定。所以目前

歸一化Batch Normalization、L1正則化和L2正則化

from: https://www.cnblogs.com/skyfsm/p/8453498.html https://www.cnblogs.com/skyfsm/p/8456968.html BN是由Google於2015年提出,這是一個深度神經網路訓練的技巧,它不僅可以加快了

CNN 中的BNbatch normalization歸一化”原理

在看 ladder network(https://arxiv.org/pdf/1507.02672v2.pdf) 時初次遇到batch normalization(BN). 文中說BN能加速收斂等好處,但是並不理解,然後就在網上搜了些關於BN的資料。

TensorFlow 中的正則化Batch Normalization詳解和實現程式碼

        雖然在訓練初期使用 He 初始化方法初始ELU(或者其他派生的ReLU)能夠有效的防止梯度彌散、爆炸問題。但是這種方式無法保證梯度問題不會在訓練過程中產生。         2015年的一篇paper( “Batch Normalization: Accel

BNBatch NormalizationTensorFlow的實現

對於BN計算一直不懂,但在tensorflow裡可以有幾個實現的方法,記錄一下: 這個Stack Overflow回答詳解了目前tensorflow中所有的batch normalization用法,其中推薦使用的high-level API是tf.la

Sublime Text 3.1 編輯管理工程項目

sub add 打開 保存 pac 多個 switch 搜索框 In ------------------------------------------------------------------------------如果有什麽不明白的,加QQ群:186970878

神經網路訓練的一些建議Batch Normalization

資料的歸一化 先放上巨集毅大神的圖,說明一下我們為什麼要做資料的歸一化 說明:x2的變化比較大,使用w2方向上就顯得比較陡峭(梯度),學習率就不能設定得過大。 Batch Normalization 為什麼要有batch normalizat

資料標準化data normalization

資料的標準化(normalization)是將資料按比例縮放,使之落入一個小的特定區間。在某些比較和評價的指標處理中經常會用到,去除資料的單位限制,將其轉化為無量綱的純數值,便於不同單位或量級的指標能夠進行比較和加權。   其中最典型的就是資料的歸一化處理,即將資料統一

機器學習------歸一化Batch Normalization, BN

  取自孫明的"數字影象處理與分析基礎"   從字面意思上理解Batch Normalization就是對每一批資料進行歸一化,確實如此,對於訓練中某一個batch的資料{x1x1, x2x2, ……, xnxn},注意這個資料可以是輸入也可以是中間某一層的

cocos2dx 3.1從零學習——菜單、場景切換、場景傳值

天空 ptr select 特效 new 要點 綁定 使用 water 回想一下上一篇的內容,我們已經學會了創建一個新的場景scene,加入sprite和label到層中。掌握了定時事件schedule。我們能夠順利的寫出打飛機的主場景框架。 上一篇的內容我練習了七個新

Spring框架——處理batch和事務Transaction

time mil -- 對數 upd gen 客戶 之前 oid 批處理(batch) 批處理(batch)------------>好比快遞員【不能一件一件的送快遞】 - 批處理指的是一次操作中執行多條SQL語句 - 批處理相比於一次一次執行效率會提高很多

處理文件Batch Files

ros 自動 簡單 mage file 簡單的 連續 文本 圖片 後綴是bat的文件就是批處理文件,是一種文本文件。簡單的說,它的作用就是自動的連續執行多條命令,批處理文件的內容就是一條一條的命令。 批處理文件(Batch Files )

Atitit api標準化法 it法學之 目錄 1. 永遠的痛點:介面與協議的標準化 1 2. 標準化優點 1 3. 標準化組織 2 3.1. 應當處理標準化委員會 2 3.2. 標準化提案與表決

Atitit  api標準化法 it法學之   目錄 1. 永遠的痛點:介面與協議的標準化 1 2. 標準化優點 1 3. 標準化組織 2 3.1. 應當處理標準化委員會 2 3.2. 標準化提案與表決 2 4. 標準化方法 2 4.1. Ap

Atitit 前後端互動模式 目錄 1.1. Ajax 1 1.2. Fetch api 1 1.3. 服務端指令碼模式簡單快速 1 1.4. 瀏覽器注入物件、函式 1 1.5. 瀏覽器外掛模式

Atitit 前後端互動模式   目錄 1.1. Ajax 1 1.2. Fetch api 1 1.3. 服務端指令碼模式(簡單快速) 1 1.4. 瀏覽器注入物件、函式 1 1.5. 瀏覽器外掛模式 1 1.6. other 1   &

TensorFlow HOWTO 2.1 支援向量分類軟間隔

在傳統機器學習方法,支援向量機算是比較厲害的方法,但是計算過程非常複雜。軟間隔支援向量機通過減弱了其約束,使計算變得簡單。 操作步驟 匯入所需的包。 import tensorflow as tf import numpy as np import matplotlib as

3.0 類的內建方法 3.1 類的繼承1 3.2 類的繼承2

3.0 類的內建方法 所謂內部類,就是在類的內部定義的類,主要目的是為了更好的抽象現實世界。 比如,汽車是一個類,汽車的地盤,輪胎也可以抽象為類,將其定義到汽車的類中,則形成內部類,更好的描述汽車類,因為底盤、輪胎是汽車的一部分 建立內部類的方法和建立類的方法很相似 內部類的例項化方法 方法1:直接使用外部類

3.0 類的內建方法 3.1 類的繼承1 3.2 類的繼承2

3.0 類的內建方法 所謂內部類,就是在類的內部定義的類,主要目的是為了更好的抽象現實世界。 比如,汽車是一個類,汽車的地盤,輪胎也可以抽象為類,將其定義到汽車的類中,則形成內部類,更好的描述汽車類,因為底盤、輪胎是汽車的一部分 建立內部類的方法和建立類的方法很相似 內部類的例項化方

3.1 表示式求值遞迴實現

#include<iostream> #include<cstring> using namespace std; int term(); int expr(); int factor(); int expr() { i