1. 程式人生 > >【吳恩達機器學習筆記】第五章:多變數線性迴歸

【吳恩達機器學習筆記】第五章:多變數線性迴歸

目錄

多特徵下的目標函式

  • 將多個特徵表示成向量
    假設訓練集中每個樣本都有多個特徵。
    m:樣本的個數
    n:特徵的個數
    x
    ( i ) \vec x^{(i)}
    :第i個樣本的特徵,其展開後是一個n+1維的向量,定義 x
    0 ( i ) = 1 x_0^{(i)}=1

    [ x 0 ( i ) x 1 ( i ) . . . x n ( i ) ] \begin{bmatrix} x_0^{(i)}\\ x_1^{(i)}\\ ...\\ x_n^{(i)} \end{bmatrix}
    x j ( i ) x_j^{(i)} :第i個樣本的第j個特徵
  • 多特徵下的預測函式
    h θ ( θ 0 , θ 1 , . . . θ n ) = θ 0 x 0 + θ 1 x 1 + . . . + θ n x n h_\theta(\theta_0,\theta_1,...\theta_n)=\theta_0x_0+\theta_1x_1+...+\theta_nx_n
    用向量表示則為:
    h θ ( θ ) = θ T x h_\theta(\vec \theta)=\vec \theta^\mathrm T \cdot \vec x
    代價函式可以寫成向量格式如下
    J ( θ ) = 1 2 m i = 1 n ( h θ ( x ( i ) ) y ( i ) ) 2 J(\vec \theta)=\frac{1}{2m}\sum_{i=1}^n(h_\theta(\vec x^{(i)})-y^{(i)})^2

多元梯度下降法

  • 一個變數的的梯度下降
    重複 θ 0 : = θ 0 α 1 m i = 1 n h θ ( ( x ( i ) ) y ( i ) ) \theta_0:=\theta_0-\alpha \frac {1}{m}\sum_{i=1}^nh_\theta((x^{(i)})-y^{(i)})
    θ 1 : = θ 1 α 1 m i = 1 n h θ ( ( x ( i ) ) y ( i ) ) x ( i ) \theta_1:=\theta_1-\alpha \frac {1}{m}\sum_{i=1}^nh_\theta((x^{(i)})-y^{(i)})\cdot x^{(i)}
    直到 J ( θ 0 , θ 1 ) J(\theta_0,\theta_1)收斂
  • 多個變數的梯度下降
    重複 θ j : = θ j α 1 m i = 1 n h θ ( ( x ( i ) ) y ( i ) ) x j ( i )     ( j = 0 , 1 , . . . , n ) \theta_j:=\theta_j-\alpha \frac {1}{m}\sum_{i=1}^nh_\theta((x^{(i)})-y^{(i)})\cdot x_j^{(i)} \ \ \ (j=0,1,...,n)