1. 程式人生 > >FPGA機器學習之stanford機器學習第三堂2

FPGA機器學習之stanford機器學習第三堂2

             我已經寫過一遍了,為了我的分享事業,我在寫一次吧。

           上一次我寫到了,這裡加號後面的那個就是錯誤率。為什麼會引入這個,上一篇,我有寫清楚。

         這裡,我們假定它符合高斯分佈。為什麼是高斯分佈,上一篇也寫了。

這裡引入似然率的概念L(thera)。

進一步往下寫。最後代入。

我們要選擇最大似然率嘛。最大似然就是說,我們要計算出的數,最大程度的出現。

為了方便引入一個新的概念。小L,就是log似然率。一步一步向下計算。這個式子,可以算出來,不過好像有點複雜是吧。我沒算,預設正確吧。

這一小塊單獨拿出來。因為它就是J(thera)。要讓L(thera)最大,就要它最小。

最後你會發現式子裡面沒有σ2,所以和它無關。

                                                                             Classification and logistic regression

這裡是邏輯迴歸。其實就是針對只有0,1 兩種情況輸出的情況。

其實這種情況很多,比如說,判斷男的還是女的,就兩種情況。比如真的,假的。兩種情況。

這裡引入一個新的函式。函式的二維圖形表示。這個函式在我前面寫的神經網路裡面也設計到了。

我們現在來假設兩個概率函式。這裡比較好理解了。y只有2個取值。0和1.所以只有2個概率值。所以下一個就是1-h(x)。

講兩個概率函式寫在一起方便下面計算

m個樣本進行訓練   這個代入後的結果。

還是求一個log似然率。

這個還有印象,梯度下降法。這個過程我大概看了一下,還是可以理解的。具體的我沒自己看,預設求出結果正確就好了。

最後求得這個式子。這個式子和之前的式子是一樣的。但是這裡的h(x)是不一樣的。

可是這裡用的是加號,所以應該叫梯度上升演算法吧。

                                                                                               perceptron learning algorithm

叫感知器學習演算法。其實情況大同小異了。

     還是一個h(x)函式定義不同。

最後求的結果還是一樣的。

梯度下降法逼近。

微笑我能力有限,但是我努力分享我的技術,一起學習,一起進步,剛接觸,有錯誤望各位指點