1. 程式人生 > >Softmax函式與交叉熵

Softmax函式與交叉熵

Softmax函式

背景與定義

在Logistic regression二分類問題中,我們可以使用sigmoid函式將輸入Wx+b對映到(0,1)區間中,從而得到屬於某個類別的概率。將這個問題進行泛化,推廣到多分類問題中,我們可以使用softmax函式,對輸出的值歸一化為概率值。

這裡假設在進入softmax函式之前,已經有模型輸出C值,其中C是要預測的類別數,模型可以是全連線網路的輸出a,其輸出個數為C,即輸出為a1,a2,...,aC

所以對每個樣本,它屬於類別i的概率為:

yi=eaiCk=1eaki1...C

通過上式可以保證Ci=1yi=1,即屬於各個類別的概率和為1。

導數

softmax函式進行求導,即求

yiaj
i項的輸出對第j項輸入的偏導。
代入softmax函式表示式,可以得到:
yiaj=eaiCk=1eakaj

用我們高中就知道的求導規則:對於

f(x)=g(x)h(x)
它的導數為
f(x)=g(x)h(x)g(x)h(x)[h(x)]2
所以在我們這個例子中,
g(x)=eaih(x)=k=1Ceak
上面兩個式子只是代表直接進行替換,而非真的等式。

eai(即g(x))對aj進行求導,要分情況討論:
1. 如果i=j,則求導結果為eai
2. 如果ij,則求導結果為0

再來看

Ck=1eakaj求導,結果為eaj

所以,當i=j時:

yiaj=eaiCk=1eakaj=eaiΣe

相關推薦

Softmax函式交叉

Softmax函式 背景與定義 在Logistic regression二分類問題中,我們可以使用sigmoid函式將輸入Wx+b對映到(0,1)區間中,從而得到屬於某個類別的概率。將這個問題進行泛化,推廣到多分類問題中,我們可以使用softmax

深度學習基礎--loss啟用函式--sigmiodsoftmax;對數損失函式交叉代價函式

sigmiod與softmax   sigmiod就是邏輯迴歸(解決二分類問題);softmax是多分類問題的邏輯迴歸   雖然邏輯迴歸能夠用於分類,不過其本質還是線性迴歸。它僅線上性迴歸的基礎上,在特徵到結果的對映中加入了一層sigmoid函式(非線性)對映,即先把特徵線性求和,然後使

神經網路代價函式交叉

在此我們以MSE作為代價函式:                        

深度學習裡的損失函式交叉

1.MSE損失函式 損失函式是機器學習與深度學習裡面的重要概念。從名字上就可以看出,損失函式(Loss Function)反應的是模型對資料的擬合程度。一般來說,損失函式越小,說明模型對資料的擬合也越好。同時我們還希望當損失函式比較大的時候,對應的梯度也會比較大,這樣梯度下降的時候更

softmax函式交叉損失函式的理解

Softmax函式背景與定義在Logistic regression二分類問題中,我們可以使用sigmoid函式將輸入Wx+bWx+b對映到(0,1)(0,1)區間中,從而得到屬於某個類別的概率。將這個問題進行泛化,推廣到多分類問題中,我們可以使用softmax函式,對輸出的

【聯絡】二項分佈的對數似然函式交叉(cross entropy)損失函式

1. 二項分佈 二項分佈也叫 0-1 分佈,如隨機變數 x 服從二項分佈,關於引數 μ(0≤μ≤1),其值取 1 和取 0 的概率如下: {p(x=1|μ)=μp(x=0|μ)=1−μ 則在 x

二項分佈的對數似然函式交叉(cross entropy)損失函式的聯絡

       今天覆習Logistic迴歸的時候涉及到二項分佈的求最大似然解,突然發現這個對數似然函式熟悉,似曾相識,不就是交叉熵損失函式麼,難道這僅僅是巧合,不能夠。先看下這個推導。 1. 二項分佈(0-1分佈): 2. 最大似然估計法: 3.

softmax + cross-entropy交叉損失函式詳解及反向傳播中的梯度求導

相關 正文 在大多數教程中, softmax 和 cross-entropy 總是一起出現, 求梯度的時候也是一起考慮. 我們來看看為什麼. 關於 softmax 和 cross-entropy 的梯度的求導過程, 已經在上面的兩篇文章中分別給出, 這裡

最小二乘交叉代價函式的區別(作用及公式推導)

 交叉熵代價函式(Cross-entropy cost function)是用來衡量人工神經網路(ANN)的預測值與實際值的一種方式。與二次代價函式相比,它能更有效地促進ANN的訓練。在介紹交叉熵代價函式之前,本文先簡要介紹二次代價函式,以及其存在的不足。 1. 二次代

機器學習基礎(五十八)—— 夏農 相對(KL散度)交叉

分享一下我老師大神的人工智慧教程!零基礎,通俗易懂!http://blog.csdn.net/jiangjunshow 也歡迎大家轉載本篇文章。分享知識,造福人民,實現我們中華民族偉大復興!        

神經網路(二):Softmax函式多元邏輯迴歸

一、 Softmax函式與多元邏輯迴歸 為了之後更深入地討論神經網路,本節將介紹在這個領域裡很重要的softmax函式,它常被用來定義神經網路的損失函式(針對分類問題)。 根據機器學習的理論,二元邏輯迴歸的模型公式可以寫為如下的形式: (1)P(y=1)=11

Python和PyTorch對比實現多標籤softmax + cross-entropy交叉損失及反向傳播

相關 關於 softmax + cross-entropy 的詳細介紹, 請參考 : BrightLamp. 多標籤softmax + cross-entropy交叉熵損失函式詳解及反向傳播中的梯度求導[EB/OL]. https://blog.csdn.net

《TensorFlow實戰Google深度學習框架》——4.2.1 經典損失函式交叉、均方差)

目錄 1、交叉熵 1、交叉熵 交叉熵是分類問題中使用比較廣的一種損失函式,刻畫了兩個概率分佈之間的距離。 給定兩個概率分佈p和q,通過q來表示p的交叉熵為: 交叉熵刻畫的是兩個概率分佈之間的距離,然而神經網路的輸出卻不一定是一個概率分佈。Softmax迴歸就

神經網絡代價函數交叉

交叉熵 softmax回歸 flow cast cross softmax .so ade equal 在此我們以MSE作為代價函數:

機器學習經典損失函式交叉和均方差

技術交流qq群: 659201069損失函式是用來評估預測模型效果的,即model的預測值與實真實值的差距。不用的機器學習模型有不同的損失函式來評估。本篇博文主要講用於分類問題的交叉熵和迴歸問題的均方差。先來說下分類和迴歸的區別。機器學習或深度學習領域常見的就是分類和迴歸,通

mse交叉

損失函式什麼時候用mse,什麼時候用交叉熵?為什麼,換過來用有什麼影響嗎? 第一,分類用交叉熵,迴歸用mse/mae,前者的假設是伯努利分佈,後者假設是高斯分佈。第二,即使在0-1之間連續值用sigmoid預測,也可能會造成梯度消失的問題。

詳解機器學習損失函式交叉

本文始發於個人公眾號:TechFlow,原創不易,求個關注 今天這篇文章和大家聊聊機器學習領域的熵。 我在看paper的時候發現對於交叉熵的理解又有些遺忘,複習了一下之後,又有了一些新的認識。故寫下本文和大家分享。 熵這個概念應用非常廣泛,我個人認為比較經典的一個應用是在熱力學當中,反應一個系統的混亂程度。

交叉softmax函式

交叉熵與softmax函式 在神經網路中,在對超引數進行優化過程當中,需要有一個優化的目標值,也就是真實值與預測值之間的差距要儘量小,差距越小說明預測越精確。這個差距往往用loss表示 在分類問題當中,我們用交叉熵來表示這個loss值。 1. 熵的概念 熵是物理學中的一個名詞

深度學習框架tensorflow學習應用5(softmax函式+交叉代價函式和二次代價函式的比較)

import tensorflow as tf from tensorflow.examples.tutorials.mnist import input_data # In[3]: #載入資料集 mnist = input_data.read_data_sets("MNIST_data",o

似然函式和最大似然估計機器學習中的交叉函式之間的關係

關於似然函式和最大似然估計的詳細說明可以看這篇文章:https://blog.csdn.net/zgcr654321/article/details/83382729 二分類情況和多分類情況下的似然函式與最大似然估計: 二分類情況下的似然函式與最大似然估計: 我們知道按照生活中的常識