1. 程式人生 > >區域性響應歸一化(Local Response Normalization)

區域性響應歸一化(Local Response Normalization)

LRN是一種提高深度學習準確度的技術方法。LRN一般是在啟用、池化函式後的一種方法。  在ALexNet中,提出了LRN層,對區域性神經元的活動建立競爭機制,使其中響應比較大對值變得相對更大,並抑制其他反饋較小的神經元,增強了模型的泛化能力。

在2012的Alexnet網路中具體計算公式如下:

其中,i表示第i個神經元在位置(x, y)使用啟用函式ReLU後的輸出,n是同一位置上臨近的kernal map的數目,N是kernal的總數。引數K, n, alpha, belta 都是超引數,一般設定k=2, n=5, alpha=1*e-4, beta=0.75。

後期爭議

在2015年 Very Deep Convolutional Networks for Large-Scale Image Recognition.提到LRN基本沒什麼用。

---------------------  作者:以筆為劍的唐吉坷德  來源:CSDN  原文:https://blog.csdn.net/greepex/article/details/79106541  版權宣告:本文為博主原創文章,轉載請附上博文連結!