Neural Networks and Deep Learning 學習筆記(十)
阿新 • • 發佈:2019-01-26
MIT那本書不適合短平快的學習方式,轉戰Udacity裡基於Tensorflow的一個視訊教學
1. softmax的優勢
格式為
相比較
假設原資料為
那麼經過softmax運算,則得到
經過普通運算得到
看起來差不太多。
但是原資料
經過普通運算的原資料是沒有變化的。
經過softmax運算前將原資料乘以10以後,softmax運算的結果為
顯而易見,最大的可能得到的結果幾乎為1,其它可能得到的結果幾乎為0,換句話說不是0就是1。
經過softmax運算前將原資料除以10以後,softmax運算的結果為
同樣顯而易見,他們幾乎相等,均勻分佈。
一個分類器開始的時候,需要對分類結果不要抱有太大信心,而在結束的時候要對分類結果抱有很大的信心,顯然softmax可以做到這一點。
2. One-hot encoding
就是說
0,0,0,1,0]
注意後三個沒有寫錯。
每一排是結果向量,顯然形成了一一對應關係。