1. 程式人生 > >Stanford cs231n 學習筆記(1)Linear Model

Stanford cs231n 學習筆記(1)Linear Model

##非引數化學習(資料驅動型學習)和引數化學習

###資料驅動型學習

整個學習演算法依賴的是訓練集中的資料樣本。典型代表:KNN。即通過對比帶預測樣本與訓練集中的樣本的“距離”或者某種度量,來實現分類的功能。在這種演算法中,每次的樣本預測是依賴和訓練集中樣本的比對得到的,可以理解為並沒有一個真正的模型,而是純粹地依賴訓練集中的資料樣本。

###引數化學習

關注的是模型的引數,即以模型的引數作為優化的目標。通過學習優化得到最終引數後,即可通過引數去表示整個模型;這對於在一些低功耗的裝置上完成相關的預測演算法的運算是很有幫助的:因為只需要傳遞一個所學習到的引數就可以實現一個模型的表示,就可以對輸入的待預測樣本完成預測。

線性模型表示為表示輸入樣本的向量與一個矩陣進行運算並加上bias。y^~ = W^T*x^~+b^~

矩陣運算為線性運算。所以線性模型與矩陣運算聯絡在一起。而線性分類器即通過學習得到的線性模型。

-對於線性分類器有兩種視角

view1:

矩陣W的每一行即表示一類的template。所以線性分類器實際上在做的就是一個模版匹配的過程(CS231N_Lecture3中有進一步的解讀。)但是線上性分類器中,每一個類別只能擁有一個模版。在之後的更復雜的模型中,包括Neural Network中不再有這個限制。

view2:

從特徵空間的角度出發,線性分類器相當於在劃分樣本的邊界,即從劃分邊界的角度去看待這個分類器。