1. 程式人生 > >常見啟用函式(sigmoid/logistic/tanh/softmax/ReLU關係解釋)

常見啟用函式(sigmoid/logistic/tanh/softmax/ReLU關係解釋)

Sigmoid

神經網路最常見的啟用函式就是sigmoid函式。
sigmoid函式意為“S型曲線函式”,它常常指的是logistic(對數機率)函式:

y=11+ex=exex+1
這裡寫圖片描述
但sigmoid函式還有其他的函式,例如tanh函式等。
tanhx=exexex+ex
(更多見https://en.wikipedia.org/wiki/Sigmoid_function
這裡寫圖片描述

Softmax

logistic函式是對於二分類的函式,若擴充套件到K維,則為softmax函式:

σ(z)j=ezjKk=1ezk
其中z為K維向量,j=1,,K

ReLU&softplus

2001年,神經科學家Dayan、Abott從生物學角度模擬出了腦神經元接受訊號更精確的啟用模型,ReLU(Rectified Linear Units)函式被提出:

f(x)=x+=max(0,x)
而ReLU函式是個分段函式,求它的平滑近似函式就是softplus函式:
f(x)=ln(1+ex)
這裡寫圖片描述

可以發現,softplus求導為

f(x)=exex+1=11+ex,即Logistic函式。

所以可以得到以上提及的函式的關係圖:

ReLUsoftpluslogisticsoftmax

相關推薦

常見啟用函式sigmoid/logistic/tanh/softmax/ReLU關係解釋

Sigmoid 神經網路最常見的啟用函式就是sigmoid函式。 sigmoid函式意為“S型曲線函式”,它常常指的是logistic(對數機率)函式: y=11+e−x=exex+1 但sigmoid函式還有其他的函式,例如tanh函式等。 ta

常用啟用函式sigmoidtanhrelu、Leaky relu、prelu、rrelu、elu、softplus、softsign、softmax、MaxOut、如何選擇合適的啟用函式

啟用函式 (Activation Function): 神經網路中的每個神經元節點接受上一層神經元的輸出值作為本神經元的輸入值,並將輸入值傳遞給下一層,輸入層神經元節點會將輸入屬性值直接傳遞給下一層(隱層或輸出層)。在不使用激勵函式時,神經網路的每層都只是做線性變換,多層輸

神經網路中的啟用函式activation function-Sigmoid, ReLu, TanHyperbolic(tanh), softmax, softplus

  不管是傳統的神經網路模型還是時下熱門的深度學習,我們都可以在其中看到啟用函式的影子。所謂啟用函式,就是在神經網路的神經元上執行的函式,負責將神經元的輸入對映到輸出端。常見的啟用函式包括Sigmoid、TanHyperbolic(tanh)、ReLu、 sof

神經網路常用啟用函式對比 sigmoid VS sofmax附python原始碼

分享一下我老師大神的人工智慧教程!零基礎,通俗易懂!http://blog.csdn.net/jiangjunshow 也歡迎大家轉載本篇文章。分享知識,造福人民,實現我們中華民族偉大復興!        

使用Python對SigmoidTanhReLU三種啟用函式繪製曲線

Sigmoid啟用函式 import math  import numpy as np import matplotlib.pyplot as plt x = np.arange(-10,10) a=np.array(x) y1=1/(1+math.e**(

深度學習常用啟用函式之— Sigmoid & ReLU & Softmax

1. 啟用函式 Rectified Linear Unit(ReLU) - 用於隱層神經元輸出Sigmoid - 用於隱層神經元輸出Softmax - 用於多分類神經網路輸出Linear - 用於迴

神經網路中的啟用函式sigmoidtanhRELU

首先解釋為什麼要做: 再解釋怎麼做: 從數學上來看,Sigmoid函式對中央區的訊號增益較大,對兩側區的訊號增益小,在訊號的特徵空間對映上,有很好的效果。 在具體應用中,t

Tanh啟用函式Sigmoid優點在哪

Sigmoid函式:Tanh函式:優勢:Tanh函式是0均值的更加有利於提高訓練效率,由於Sigmoid輸出是在0-1之間,總是正數,在訓練過程中引數的梯度值為同一符號,這樣更新的時候容易出現zigzag現象,不容易到達最優值。具體推導詳見知乎:https://www.zhi

[深度學習] 神經網路中的啟用函式Activation function

20180930 在研究調整FCN模型的時候,對啟用函式做更深入地選擇,記錄學習內容 啟用函式(Activation Function),就是在人工神經網路的神經元上執行的函式,負責將神經元的輸入對映到輸出端。 線性啟用函式:最簡單的linear fun

機器學習與深度學習系列連載: 第二部分 深度學習可以自己學習的啟用函式Maxout

可以自己學習的啟用函式(Maxout) 在深度學習中啟用函式有sigma, tanh, relu,還有以後會將到的selu,但是有沒有一個啟用函式不是人為設定的,是機器學出來的呢?對抗網路(GAN)之父Goodfellow,給我們一個肯定的答案。Learnabl

啟用函式ReLu LReLU PReLU CReLU ELU SELU

ReLU  tensorflow中:tf.nn.relu(features, name=None) LReLU (Leaky-ReLU)  其中aiai是固定的。ii表示不同的通道對應不同的aiai. tensorflow中:tf.nn.leaky_re

深度學習之啟用函式Python實現

import matplotlib.pyplot as plt import numpy as np import tensorflow as tf from tensorflow.python.framework import ops ops.reset_defau

啟用函式Activation function

神經網路中使用啟用函式來加入非線性因素,提高模型的表達能力。 ReLU(Rectified Linear Unit,修正線性單元) f(x)={0,x,x≤0x>0f(x)={0,x≤0x,x>0 詳細公式ReLU: f(x)其中σ(z)=∑i=1infσ(x−i+0.5)≈log

機器學習啟用函式Activation Function

0. 啟用函式 上圖為wiki上的定義:啟用函式定義了每個節點(神經元)的輸出和輸入關係的函式。 下表:常用啟用函式 編號 函數 公式 1) sigmoid(

為什麼神經網路中需要啟用函式activation function

在看tensorflow的時候,發現書中程式碼提到,使用ReLU啟用函式完成去線性化為什麼需要啟用函式去線性化?查了一下quaro,覺得這個回答能看明白(順便問一句,截圖算不算引用??)---------------------------------------------

深度學習筆記六:常見啟用函式總結

一.啟用函式概覽 基本上,入門深度學習的第一件事情就是了解”神經元”的構造,啟用函式算是最基本的一個”部件”了吧.那啟用函式到底有什麼用呢?為什麼需要啟用函式?啟用函式的定義是什麼呢? 下面這篇論文提供了啟用函式的定義以及常見的”飽和”的定義,以及對於啟用函

C++從零實現深度神經網路之六——實戰手寫數字識別sigmoidtanh

本文由@星沉閣冰不語出品,轉載請註明作者和出處。之前的五篇部落格講述的內容應該覆蓋瞭如何編寫神經網路的大部分內容,在經過之前的一系列努力之後,終於可以開始實戰了。試試寫出來的神經網路怎麼樣吧。一、資料準

convolution層特點及有無啟用函式caffe

1,convolution層(區域性感知,權值共享) 2,caffe中convolution的實現中沒有啟用函式,所以通常要在配置檔案中該層之後新增一個ReLU層作為啟用函式。 Ref: http://www.jeyzhang.com/cnn-learning-notes-

人工神經元模型及常見啟用函式

人工神經元模型 生物學上神經元通常由細胞體,細胞核,樹突和軸突構成。 樹突用來接收其他神經元傳導過來的訊號,一個神經元有多個樹突; 細胞核是神經元中的核心模組,用來處理所有的傳入訊號; 軸突是輸出訊

PHP 面向對象中常見關鍵字使用final、static、const和instanceof

對象的引用 符號 存在 stat true 函數 php 面向對象 his 對象引用 PHP 面向對象中常見關鍵字的使用:   1、final :final關鍵字可以加在類或者類中方法之前,但是不能使用final標識成員屬性。     作用: 使用final標識的類,不能被