1. 程式人生 > >線性迴歸係數,區域性加權線性迴歸係數的數學推導

線性迴歸係數,區域性加權線性迴歸係數的數學推導

線性迴歸linear regression
區域性加權線性迴歸local weighted linear regression

線性迴歸

用普通最小二乘法Ordinary Least Square即通過最小化誤差的平方和尋找資料的最佳函式匹配
i=1m(yxiTw)2 \sum_{i=1}^{m}(y-x_i^Tw)^2
用矩陣表示:
(yXw)T(yXw) (y-Xw)^T(y-Xw)
對這個式子求導,令其等於0,解出ww即為最優解。
結論為
w^=(XTX)1XTy,w^w \hat{w}=(X^TX)^{-1}X^Ty,\hat{w}表示w的一個最佳估計

X:n×pX:n\times p
y:n×1y :n\times 1
w:p×1w:p\times 1
推導過程:
(yXw)T(yXw)=(yTwTXT)(yXw)=(yTyyTXwwTXTy+wTXTXw) \begin{aligned} (y-Xw)^T(y-Xw) &=(y^T-w^TX^T)(y-Xw) \\ &=(y^Ty-y^TXw-w^TX^Ty+w^TX^TXw) \\ \end{aligned}

Xw)=(yTyyTXwwTXTy+wTXTXw)

分別求導:
(yTy)w=0 \frac {\partial( y^Ty)}{\partial w}=0
(yTXw)w=(yTX)T=XTy\begin{aligned} \frac {\partial( y^TXw)}{\partial w} &=(y^TX)^T\\ &=X^Ty,分母佈局 \end{aligned}
(wTXTy)w=(wTXTy)Tw=(yTXw)w=(y

TX)T=XTy\begin{aligned} \frac {\partial(w^TX^Ty)}{\partial w}&=\frac {\partial(w^TX^Ty)^T}{\partial w} ,標量轉置不變\\ &=\frac {\partial(y^TXw)}{\partial w}\\ &=(y^TX)^T,轉置,分母佈局\\ &=X^Ty \end{aligned}
(wTXTXw)w=(wTAw)w=wTwAw+(Aw)Tww=wTwAw+(wTAT)ww=(A+AT)w=2Aw=2ATw \begin{aligned} \frac {\partial(w^TX^TXw)}{\partial w}&=\frac {\partial(w^TAw)}{\partial w},①\\ &=\frac {\partial w^T }{\partial w}Aw+\frac {\partial (Aw)^T }{\partial w}w,②\\ &=\frac {\partial w^T }{\partial w}Aw+\frac {\partial (w^TA^T) }{\partial w}w,③\\ &=(A+A^T)w=2Aw=2A^Tw, \end{aligned}
① 直接公式d(wTAw)dw=(A+AT)w\frac{d(w^TAw)}{dw}=(A+A^T)w
②用 d(ATB)dX=dATdXB+dBTdXA\frac{d(A^TB)}{dX}=\frac{dA^T}{dX}B+\frac{dB^T}{dX}A
dXTdX=I\frac{dX^T}{dX}=I

區域性加權線性迴歸

區域性加權線性迴歸的WW是對角矩陣n * n,用高斯核,對應的
w(i,i)=exp(x(i)x2k2) w(i,i)=exp(\frac{|x^{(i)}-x|} {-2k^2} )
J(θ)=(yXw)TW(yXw)J(\theta)=(y-Xw)^TW(y-Xw)
推導過程一樣,
w^=(XTWX)1XTWy\hat w=(X^TWX)^{-1}X^TWy
看了一下午矩陣微分的證明和定義,公式寫起來太麻煩了,發現有一個很好的整理和講義。
矩陣微分法