1. 程式人生 > >1.2.9&1.2.10 【Deep Learning翻譯系列】Logistic Regression Gradient Descent 對數機率迴歸的梯度下降

1.2.9&1.2.10 【Deep Learning翻譯系列】Logistic Regression Gradient Descent 對數機率迴歸的梯度下降

我們按如下方式設定了對數機率迴歸,
z = w T x + b ,

z)," role="presentation"> a = y ^ = σ ( z ) ,

L ( a , y )
= ( 1 y ) log ( 1 y ^ ) y log ( y ^ ) .

在對數機率迴歸中,我們想要做的是修改引數w和b,以減少L。我們已經描述了在單個訓練示例中實際計算損失的四個傳播步驟,現在讓我們談談如何反向計算導數。
對數機率迴歸的計算圖
因為我們想做的是關於這種損失的計算導數,我們反向計算時要做的第一件事就是計算 L a = y a + 1 y 1 a

然後 L z = L a a z = a ( 1 a ) ( y a + 1 y 1 a ) = a y

最後計算關於w和b的微分
L w 1 = x 1 L z ,
L w 2 = x 2 L z ,
L b = L z .

因此對數機率迴歸梯度下降計算的方向是:
w 1 := w 1 α L w 1 ,
w 2 := w 2 α L w 2 ,
b := b α L b .

其中 α 是學習率。

上面是隻有一個訓練樣本時的對數機率迴歸的梯度下降方向,
現在我們想要為m個訓練樣本的對數機率迴歸進行梯度下降操作。
整體的成本函式 J = 1 m i = 1 m L ( a ( i ) , y ( i ) )
然後 J w i = 1 m L ( a ( i ) , y ( i ) ) w i
α 是學習率,然後梯度下降每次迭代的更新公式為:
w 1 := w 1 α J w 1 ,

相關推薦

1.2.7&1.2.8 Deep Learning翻譯系列Derivatives with a Computation Graph 採用計算圖計算微分

我說神經網路的計算是按正向傳遞或前向傳播步驟組織的,我們計算神經網路的輸出,然後是反向傳遞或反向傳播步驟,我們用於計算梯度或計算導數。計算圖解釋了為什麼它以這種方式組織。我們將通過一個例子說明計算圖(比對數概率迴歸或完整的神經網路更簡單的例子)。 假設我們正在嘗試計算一個函式

1.3.2Deep Learning翻譯系列Activation Functions 啟用函式

1、Sigmoid與雙曲正切 當建立神經網路,要做出的選擇之一是在隱藏層、輸出單元使用什麼啟用函式。 常見如的Sigmoid函式: σ

1.2.11 Deep Learning翻譯系列Explanation of Logistic Regression Cost Function 對數機率迴歸代價函式的說明

視訊地址 本視訊給出在對數機率迴歸使用這個成本函式的理由。 在之前的對數機率迴歸中,預測 y ^

1.3.1 Deep Learning翻譯系列Neural Network Overview神經網路概覽

上圖是一個神經網路。神經網路中每個的節點對應於的兩個步驟: 首先計算 z = w

GAN ZOO翻譯系列基於能量的生成對抗網路 Energy-Based Generative Adversarial Networks

趙俊博, Michael Mathieu, Yann LeCun 紐約大學計算機科學系 Facebook人工智慧研究院 {jakezhao, mathieu, yann}@cs.nyu.edu 原文連結https://arxiv.org/abs/1609.031

GAN ZOO翻譯系列InfoGAN: Interpretable Representation Learning by Information Maximizing GAN

本文是InfoGAN的翻譯,原文地址:https://arxiv.org/abs/1606.03657 相當一部分部分翻譯參照於:https://blog.csdn.net/pingguolou/article/details/72920970 infoGAN:通過最大化生成對抗網路中資

GAN ZOO翻譯系列s2GAN:使用樣式和結構對抗式網路的生成影象建模

王小龍,Abhinav Gupta 卡耐基梅隆大學機器人研究所 摘要 當前的生成框架使用的端至端的學習,並從均勻噪聲分佈取樣產生影象。然而,這些方法忽略影象形成的最基本的原理。影象是按照以下方式產生的:(a)結構:3D模型;(B)樣式:紋理到結構的對

GAN ZOO翻譯系列Cat GAN:UNSUPERVISED AND SEMI-SUPERVISED LEARNING WITH CATEGORICAL GAN 用於監督和半監督學習的GAN

Jost Tobias Springenberg 弗萊堡大學 79110 Freiburg, Germany [email protected] 原文連結https://arxiv.org/abs

Deep Learning讀書筆記深度學習中的概率論

本文首發自公眾號:RAIS,期待你的關注。 前言 本系列文章為 《Deep Learning》 讀書筆記,可以參看原書一起閱讀,效果更佳。 概率論 機器學習中,往往需要大量處理不確定量,或者是隨機量,這與我們傳統所需要解決掉問題是大不一樣的,因此我們在機器學習中往往很難給出一個百分百的預測或者判斷,基於此

shell命令中>/dev/null 2>&1的實現原理

情況 內存 顯示 都是 style hand 引用 nis roo 異步執行 exec("/alidata/server/php/bin/php /nas/wxdoctor/index.php App/Common/WordsPic/user_id/".$user_

ArcGIS for Android 10.2.91):開發環境配置

官方文件 API 開發環境整合(2中方式) 一.Gradle (推薦) 使用以下程式碼示例將Maven儲存庫的URL和ArcGIS Runtime SDK for Android依賴項新增到專案中。Esri的儲存庫不是開源的,所以你必須指定一個

Shell重定向&>file、2>&11>&2的區別

宋體 -s adding 必須 輸出 說話 如何 特殊 null 轉自:http://www.360doc.com/content/13/0523/16/7044580_287544243.shtml shell上:0表示標準輸入1表示標準輸出2表示標準錯誤輸出

Shell中的>/dev/null 2>&12>&1 >/dev/null 與&>/dev/null 的區別

文件描述符 art 應該 tar 輸入 情況 style 鍵盤 blog 默認情況下,總是有三個文件處於打開狀態,標準輸入(鍵盤輸入)、標準輸出(輸出到屏幕)、標準錯誤(也是輸出到屏幕),它們分別對應的文件描述符是0,1,2 。那麽我們來看看下面的幾種重定向方法的區別: &

[轉載]>/dev/null 2>&1 含義

eno 結合 解析 and nbsp 並且 描述符 輸入 操作 shell中可能經常能看到:echo log > /dev/null 2>&1 命令的結果可以通過%>的形式來定義輸出/dev/null :代表空設備文件> :代表重定向到

linux之2>&1

決心 分頁 fin 進行 .html 因此 普通用戶 以及 div 轉載自:http://blog.sina.com.cn/s/blog_5842daa30101enz5.html 經常關註linux腳本的人,一定看到過 2>&1 這樣的用法,最初一定不明白其

Shell的>/dev/null、2>&12>1

重新 test lan tdi 就是 顯示 tran mouse flat 轉載自:http://dos2unix.cn/link/480 1. 標準輸入stdin文件描述符為0,標準輸出stdout文件描述符為1,標準錯誤stderr文件描述符為2 2. /dev

2>&1 的用法說明

fin 分別是 終端 body 這樣的 舉例 三種 tdi 例如 http://blog.sina.com.cn/s/blog_5842daa30101enz5.html經常關註linux腳本的人,一定看到過 2>&1 這樣的用法,最初一定不明白其中的含義以

linux shell 中的 2>&1 用法說明

pass 重定向 分解 說明 分別是 理解 重新 這樣的 通用 linux中有三種標準輸入輸出,分別是 STDIN,STDOUT,STDERR,對應的數字是 0,1,2。 STDIN 是標準輸入,默認從鍵盤讀取信息; STDOUT 是標準輸出,默認將輸出結果輸出至終端,也

hell 1>&2 2>&1 &>filename重定向的含義和區別

基本 lena err 傳遞 使用 意思 文件 定義 追加 當初在shell中, 看到">&1"和">&2"始終不明白什麽意思.經過在網上的搜索得以解惑.其實這是兩種輸出. 一、linux重定向的設備代碼 標準輸入(stdin) 代碼為 0 ,