1. 程式人生 > >機器學習中常用的傳遞函式總結

機器學習中常用的傳遞函式總結

傳遞函式是在神經網路中用到的,在這裡先列舉一下:
函式名稱 對映關係 影象 縮寫 說明
階梯函式

a=0,n<=0

a=1,n>0

Step

n大於等

於0時,

輸出1,

否則輸出0

符號函式

a=-1,n<0

a=1,n>=0

Sgn

n大於等於

0時,輸出1,

否則輸出-1

線性函式 a=n Linear

n本身就是

神經元輸出

飽和線性函式

a=0,n<0

a=n,0<==n<=1

a=1,n>1

Ramp

n小於0時,

輸出0,

n在0到1

區間時,

輸出n,

n大於1時,

輸出1

對數S形函式 a=1/(1+exp(-n)) Sigmoid

有界函式,

無論n如何,

輸出永遠在

(0,1)區間

n→負無窮:

a=0

n→正無窮:

a=1

雙曲正切

S形函式

\[a=\frac{e^{n}-e^{-n}}{e^{n}+e^{-n}}\] Tanh

有界函式,

無論n如何,

輸出永遠在

(-1,1)區間

n→負無窮:

a=-1

n→正無窮:

a=1


相關推薦

機器學習常用損失函式

1. 損失函式 損失函式(Loss function)是用來估量你模型的預測值 f(x)f(x)值。 2. 常用損失函式 常見的損失誤差有五種: 1. 鉸鏈損失(Hinge Loss):主要用於支援向量機(SVM) 中

機器學習的損失函式總結

損失函式(loss function)是用來估量你模型的預測值f(x)與真實值Y的不一致程度,它是一個非負實值函式,通常使用L(Y, f(x))來表示,損失函式越小,模型的魯棒性就越好。損失函式是經驗風險函式的核心部分,也是結構風險函式重要組成部分。模型的結構風險函式包括

機器學習的目標函式總結

幾乎所有的機器學習演算法最後都歸結為求解最優化問題,以達到我們想讓演算法達到的目標。為了完成某一目標,需要構造出一個“目標函式”來,然後讓該函式取極大值或極小值,從而得到機器學習演算法的模型引數。如何構造出一個合理的目標函式,是建立機器學習演算法的關鍵,一旦目標函式確定,接下

機器學習常用傳遞函式總結

傳遞函式是在神經網路中用到的,在這裡先列舉一下: 函式名稱 對映關係 影象 縮寫 說明 階梯函式 a=0,n<=0 a=1,n>0 Step n大於等 於0時, 輸出1, 否則輸

機器學習入門——常用啟用函式(Activation Function)表格形式總結

圖片摘自高揚,衛崢所著的《白話深度學習與TensorFlow》 啟用函式(activation function)——也有翻譯成激勵函式,變換函式的,是神經元中重要的組成部分,如果不用激勵函式,每一層輸出都是上層輸入的線性函式,無論神經網路有多少層,輸出都是輸入的線性組合,

機器學習常用演算法總結

參考:http://www.shuju.net/article/MDAwMDAyM4DM0.html 在垃圾郵件分類器專案中,隨機森林被用作最終的分類器模型。面試官可能會就此提出以下問題:為什麼選擇隨機森林而非其他模型,比如樸素貝葉斯或者支援向量機。一般來說,面試者可以從數

機器學習常用到的知識點總結

寫在前面的話 都是什麼鬼,為什麼學校的洗手液和老闆用的沐浴乳是一個味道的,我現在在敲程式碼,整個手上都瀰漫著一股老闆的味道,深深的恐懼感油然而生 1.基本概念 監督學習(supervised learning) 分類問題 資料是有標籤的 無監督

機器學習常用的Numpy函式

1、numpy.nonzeros() 返回非0元素的索引 如果是二維矩陣的話,返回兩個陣列。第一個陣列包含矩陣非0元素按從左到右從上到下在行上的索引,第二個陣列包含矩陣非0元素按從左到右從上到下在列上的索引 2、numpy.flatten() 返回矩

機器學習常用的矩陣向量求導公式

學習機器學習的時候有很的線性代數的知識,其中有一些矩陣向量求導的東西不是很熟悉,今天查了很久覺得做一個總結。     定義1.梯度(Gradient) [標量對列向量微分] 設是一個變數為的標量函式,其中。那麼定義對的梯度為:  定義2. 海森矩

機器學習的相似性度量總結 [轉]

核函式的含義是兩個輸入變數的相似度,描述相似度的方法有很多種,就本人的專案經驗來說用的最多的是相關係數和歐氏距離。本文對機器學習中常用的相似性度量進行了總結。   作者:蒼梧 連結:https://www.cnblogs.com/heaad/archive/2011/

機器學習的核函式與核方法(是什麼?為什麼?怎麼做?)

我們在學習機器學習的時候,總是會看到一個概念——核,然後看到一堆公式。但是為什麼要核呢?核到底是啥玩意?雲裡霧裡。接下來,我們將要把“核”這個東西的神祕面紗一點點揭開。 一、什麼是“核函式” 我們都知道,機器學習(神經網路)的一個很重要的目的,就是將資料分類。我們想象下面這個資料(圖1),在

機器學習Logistic損失函式以及神經網路損失函式詳解

機器學習中最重要的三個部分為網路結構、損失函式、優化策略。 而其中以損失函式最難以理解,主要原因是需要較強的數學知識,其中用的最多的就是引數估計。 所謂引數估計就是:對未知引數θ進行估計時,在引數可能的取值範圍內選取,使“樣本獲得此觀測值”的概率最大的引數作為θ的估計,這樣選定的有利於”

機器學習向量化程式設計總結記錄

向量化程式設計總結記錄 很多時候,我們在實現演算法的時候,總會碰到累和的虛擬碼: 比如下面這個: 為了簡單我這裡只重複5次,但是原理是一樣的。 很顯然我們要得到這個結果,非常簡單,比如下面的這段python程式碼: 那麼我們有沒有更好的辦法呢?有的,看到

關於機器學習的損失函式loss function

深度學習的目標是訓練出一個模型,用這個模型去進行一系列的預測。於是我們將訓練過程涉及的過程抽象成數學函式,首先,需要定義一個網路結構,相當於定義一種線性非線性函式,接著,設定一個優化目標,也就是定義一種損失函式。

機器學習的損失函式

損失函式(loss function)是用來估量你模型的預測值f(x)與真實值Y的不一致程度,它是一個非負實值函式,通常使用L(Y, f(x))來表示,損失函式越小,模型的魯棒性就越好。損失函式是經驗風險函式的核心部分,也是結構風險函式重要組成部分。模型的結構風險函式包括

機器學習常用損失函式

損失函式一般用作機器學習的目標函式,訓練引數的目的是使損失最小化。一般的方法是求導得0。先介紹一下經驗風險和結構風險。假設一個樣本的損失函式為 l (

機器學習入門——常用代價函式(Cost Function)介紹

損失函式(Loss Function )是定義在單個樣本上的,算的是一個樣本的誤差,而代價函式(Cost Function )是定義在整個訓練集上的,是所有樣本誤差的平均,也就是損失函式的平均,這給我們評價學習效果提供了一個標準,提出這個後下一步要做的就是不斷優化神經網路來減

淺析機器學習各種損失函式及其含義

常見的損失函式 1.0-1損失函式(0-1 loss function) L(Y,f(X))={1,Y≠f(X)0,Y=f(X)   可以看出,該損失函式的意義就是,當預測錯誤時,損失函式值為1,預測正確時,損失函式值為0。該損失函式不考慮預測值和真實

Tensorflow常用函式總結(一)

1、tf.shape()和x.get_shape().as_list()的使用 (1) tf.shape() 先說tf.shape()很顯然這個是獲取張量的大小的,用法無需多說,直接上例子吧! import tensorflow as tf import numpy

機器學習常用的資料集處理方法

1.離散值的處理: 因為離散值的差值是沒有實際意義的。比如如果用0,1,2代表紅黃藍,1-0的差值代表黃-紅,是沒有意義的。因此,我們往往會把擁有d個取值的離散值變為d個取值為0,1的離散值或者將其對映為多維向量。 2.屬性歸一化: 歸一化的目標是把各位屬