1. 程式人生 > >李巨集毅機器學習 P14 Backpropagation 筆記

李巨集毅機器學習 P14 Backpropagation 筆記

chain rule:求導的鏈式法則。

接著上一節,我們想要minimize這個loss的值,我們需要計算梯度來更新w和b。

以一個neuron舉例:

這個偏微分的結果就是輸入x。

比如下面這個神經網路:

下面我們要計算這個偏微分:。這裡的以sigmoid函式為例。

比如我們的loss值如果是交叉熵函式,那麼其實這個偏微分就是交叉熵函式的導數乘以sigmoid函式的導數。

我們現在假設都已知,則

你可以把看成是另外一種neuron。

是什麼呢?

假設後面的紅色節點就是輸出層,則

如果後面不是輸出層,則繼續往後推,就是遞迴思想,直到最後一層是輸出層。

實際上就是建立一個反向的neural network,從輸出層向前計算。

總結: