1. 程式人生 > >機器學習的數學基礎(叄)

機器學習的數學基礎(叄)

1 最小二乘法(Least Square Fitting)

最小二乘法則是一種統計學習優化技術,它的目標是最小化誤差平方之和來作為目標,從而找到最優模型,這個模型可以擬合(fit)觀察資料。
迴歸學習最常用的損失函式是平方損失函式,在此情況下,迴歸問題可以用著名的最小二乘法來解決。最小二乘法就是曲線擬合的一種解決方法。
來自https://blog.csdn.net/iterate7/article/details/78992015

J (

θ ) = i = 1 m
( f θ ( x i )
y i ) 2 J(\theta)= \sum_{i=1}^{m} (f_\theta(x_{i})-y_{i})^2

  • 矩陣求導方法
    ( X T X ) θ = X T y (X^T X)\theta = X^Ty
    θ = ( X T X ) 1 X T y \theta = (X^T X)^{-1}X^Ty

推導https://blog.csdn.net/ACdreamers/article/details/44662633

  • 數值方法牛頓法
    x k + 1 = x k H k 1 g k x^{k+1}=x^{k}-H^{-1}_kg_{k}

推導https://blog.csdn.net/iterate7/article/details/78387326

  • 梯度下降
    θ j : = θ j α J ( θ ) ( θ j ) \theta_j:=\theta_j - \alpha* \frac{\partial J(\theta)}{\partial(\theta_j)}
    如果被分析的函式是線性的,線上性迴歸中,我們假設損失函式形式是 J ( θ ) = 1 2 N 1 n ( h θ ( x ) ( i ) y ( i ) ) 2 J(\theta)=\frac{1}{2N}\sum_1^n(h_\theta(x)^{(i)}-y^{(i)})^2 並且 h ( x ) = θ 1 x 1 + θ 0 h(x)=\theta_1 x_1+\theta_0 ,則:
    θ 0 θ 0 α J ( θ 1 , θ 0 ) ( θ 0 ) α > 0 \theta_0 \leftarrow \theta_0 -\alpha* \frac{\partial J(\theta_1,\theta_0)}{\partial(\theta_0)} ,\alpha>0
    θ 1 θ 1 α J ( θ 1 , θ 0 ) ( θ 1 ) α > 0 \theta_1 \leftarrow \theta_1 -\alpha* \frac{\partial J(\theta_1,\theta_0)}{\partial(\theta_1)} ,\alpha>0
    α \alpha 是學習速率, J ( θ 1 , θ 0 ) ( θ 1 ) = 1 N 1 n ( h ( x ) ( i ) y ( i ) ) x 1 ( i ) \frac{\partial J(\theta_1,\theta_0)}{\partial(\theta_1)}=\frac{1}{N}\sum_1^n(h(x)^{(i)}-y^{(i)})x_1^{(i)} , J ( θ 1 , θ 0 ) ( θ 0 ) = 1 N 1 n ( h ( x ) ( i ) y ( i ) ) \frac{\partial J(\theta_1,\theta_0)}{\partial(\theta_0)}=\frac{1}{N}\sum_1^n(h(x)^{(i)}-y^{(i)})