1. 程式人生 > >機器學習技法筆記-Lecture 13 Deep learning

機器學習技法筆記-Lecture 13 Deep learning

需要 clas 操作 -1 變換 png image cati fun

一些挑戰:

網絡結構的選擇。CNN的想法是對鄰近的輸入,有著相同的weight。

模型復雜度。

最優化的初始點選擇。pre-training

計算復雜度。

技術分享

包含pre-training的DL框架

技術分享

如何做pre-training? 下面介紹了一種方式。

weight可以看做是對x做特征轉換,那麽希望在第一次轉換後(從0層到1層)仍然能保持足夠多的原來的信息,那麽再從1層回到0層,應該得到近似的結果。

技術分享

這種NN叫做autoencoder,兩層分別是編碼和解碼的操作,來逼近 identity function。

技術分享

通過逼近 identity function的方式,能夠學習到數據中隱藏的結構,當做一種變換。

對監督學習:有信息價值的表示

對無監督學習:對典型數據的表示

技術分享

autoencoder的損失函數用平方誤差表示,因為只用到了x,可以看做是無監督學習。

一般限制編碼的權重等於解碼的權重,減少變量的個數,降低復雜度。

技術分享

deep learning中的正則化

對noise的處理?

加入一些人為噪音,使得autoencoder的pre-training更健壯。

技術分享

linear autoencoder

技術分享

這裏用到了對稱矩陣的特征值分解。V是正交矩陣。

技術分享

對有兩個變量的問題求解,首先固定V,求解beta.

技術分享

非常巧,這裏的結果和pca的結論是一樣的。因為它們本質上都是找到一個變換使得數據保持最多的信息(也就是方差最大,同時也等價於殘差最小)

技術分享

標準的PCA首先需要對數據去均值,後續對其他x的變換也需要先減去均值。

技術分享

機器學習技法筆記-Lecture 13 Deep learning