1. 程式人生 > >樸素貝葉斯法(naive bayes)邏輯迴歸(logistic regression)線性迴歸

樸素貝葉斯法(naive bayes)邏輯迴歸(logistic regression)線性迴歸

樸素貝葉斯法實際上學習到生成資料的機制,所以屬於生成模型。條件獨立假設等於是說用於分類的特徵在類確定的條件下都是條件獨立的,但是有的時候會失去一些分類準確性。

對於給定的輸入x,通過學習到的模型計算後驗概率分佈,將後驗概率最大的類作為x的類輸出

主要是使用貝葉斯公式推導的過程。在訓練過程中可以得到先驗概率P(X=x|Y=Ck),和P(Y= Ck)

 邏輯迴歸:基於sigmoid函式,比較概率,x分到概率較大的那一類。

當維度很大的時候,分類器的分類能力會下降。帶來過擬合,防止過擬合的方法就是交叉驗證。降低維度的方法就是PCA.

邏輯迴歸優點:實現簡單,計算量小,速度快,但是隻能處理兩分類問題,容易欠擬合(適用於線性可分)

線性迴歸:給定訓練集或者訓練資料,輸出是線性擬合的函式。每個特徵變數對映到一個函式h(x)然後再參與線性計算。

 對h(x)進行評估的損失函式J(),.

線性迴歸和邏輯迴歸的不同:

線性迴歸用於預測,邏輯迴歸用於分類

線性迴歸   y(i) 未知,邏輯迴歸y(i)非0即1

線性迴歸 最小二乘法(計算誤差)   邏輯迴歸 最大似然估計(計算可能性)