1. 程式人生 > >DTW,HMM,EM,PCA,貝葉斯,K-NN學習過程

DTW,HMM,EM,PCA,貝葉斯,K-NN學習過程

1. DTW:用途:模版匹配,學習過程:首先看http://blog.csdn.net/zouxy09/article/details/9140207中的語音訊號處理之(一)動態時間規整(DTW)注意不要忘記看後邊的參考文獻。

2. HMM:看http://www.cnblogs.com/tornadomeet/archive/2012/03/24/2415583.html和http://www.cnblogs.com/tornadomeet/archive/2012/03/24/2415889.html學習HMM前向概率和Viterbi演算法其中可參考統計學習方法中的摸球例題。

3. EM:用途:迭代取最優。 http://blog.csdn.net/zouxy09/article/details/8537620

從最大似然到EM演算法淺解

4.PCA:用途:降維。http://www.cnblogs.com/zhangchaoyang/articles/2222048.html主成分分析PCA和http://www.cnblogs.com/tornadomeet/archive/2012/12/30/2839615.htmlPCA演算法學習_2(PCA理論的matlab實現){其中PCA白化矩陣不理解什麼用處}

5:凸優化:http://www.cnblogs.com/tornadomeet/p/3300132.html建議看一下《凸優化》這本書。凸優化是機器學習的基本數學知識,必學。

6:HTK:語音識別,現在正在學習,學完之後新增學習過程。

7.概率圖模型(PGM)有空應該學習一下

8. 樸素貝葉斯,運用貝葉斯概率分類,可看李航的《統計學習方法》。但其中P48後驗概率最大化不大明白

9.K-NN,K近鄰,可看李航的《統計學習方法》。