1. 程式人生 > >機器學習(八)——感知器學習演算法(The perceptron learning algorithm)

機器學習(八)——感知器學習演算法(The perceptron learning algorithm)

現在,讓我們簡要地談論一個歷史上曾經令人很感興趣的演算法,當學習到學習理論章節的時候我們將還會提到這個。試想一下修改logistic迴歸的方法,來“迫使”它能夠輸出除了0或1亦或是其它以外的輸出值。為了達到這個目的,自然而然地會想到去改變閾值函式 gg 的定義:


接下來,如果我們和前面一樣令 hθ(x)=g(θTx)hθ(x)=g(θTx) ,但卻使用修改了定義的函式 gg ,如果我們使用的是這個更新規則:

θj:=θj+α(y(i)hθ(x(i)))x(i)jθj:=θj+α(y(i)−hθ(x(i)))xj(i)

這樣我們就得到了感知器學習演算法。

在 19世紀60 年代,這個“感知器(perceptron)”被認為是對大腦中單個神經元工作方法的一個粗略建模。考慮到這個演算法比較簡單,我們後續在本課程中講學習理論的時候也會作為分析的起點來講一講。但一定要注意,雖然這個感知器學習演算法可能看上去表面上跟我們之前講的其他演算法挺相似,但實際上這是一個和logistic迴歸以及最小二乘線性迴歸等演算法在種類上都完全不同的演算法;尤其重要的是,很難去對感知器的預測賦予有意義的概率解釋,也很難作為一種最大似然估計演算法來推導感知器學習演算法。