1. 程式人生 > >Neural Networks and Deep Learning 學習筆記(十)

Neural Networks and Deep Learning 學習筆記(十)

MIT那本書不適合短平快的學習方式,轉戰Udacity裡基於Tensorflow的一個視訊教學

1. softmax的優勢

格式為

exijexj
相比較xijxj

假設原資料為

[3.0,1.0,0.2]
那麼經過softmax運算,則得到[0.8360188,0.11314284,0.05083836]
經過普通運算得到[0.714285,0.238095,0.047619]
看起來差不太多。

但是原資料×10後,差別就顯示出來了。

經過普通運算的原資料是沒有變化的。

[0.714285,0.238095,0.047619]

經過softmax運算前將原資料乘以10以後,softmax運算的結果為

[9.99999998
e01,2.06115362e09,6.91440009e13]

顯而易見,最大的可能得到的結果幾乎為1,其它可能得到的結果幾乎為0,換句話說不是0就是1。

經過softmax運算前將原資料除以10以後,softmax運算的結果為

[0.38842275,0.31801365,0.2935636]
同樣顯而易見,他們幾乎相等,均勻分佈。

一個分類器開始的時候,需要對分類結果不要抱有太大信心,而在結束的時候要對分類結果抱有很大的信心,顯然softmax可以做到這一點。

2. One-hot encoding

就是說
[1,0,0,0,0]對應a
[0,1,0,0,0]對應b
[0,0,0,0,1]對應c
[0,0,1,0,0]對應d
[

0,0,0,1,0]對應e
注意後三個沒有寫錯。
每一排是結果向量,顯然形成了一一對應關係。