1. 程式人生 > >#機器學習筆記01#多變數線性迴歸

#機器學習筆記01#多變數線性迴歸

1多變數線性迴歸

1.1 回顧單變數線性迴歸

  • 訓練集提出: Training set of housing prise 以房屋價格為例
Size in feet(x) Price in 1000’s (y)
2104 460
1416 232
1532 315
852 178
  • 假設函式Hypothesis
  • 代價函式 cost function 平方誤差和函式:
  • 梯度下降 Want min J(theat 0 , theat 1 ); 其中α表示步長,每次前進梯度的權重;每次對θi進行負梯度方向的更新,一旦對應的代價函式取值足夠小則認為找到區域性最小值。 並且
    此處需要同步更新θ引數。
  • 梯度下降結合線性迴歸,求導計算結果如下

1.2多元梯度下降問題

  • 預測函式 多變數預測函式 方便起見x0均為1;
  • 多特徵 從多個引數迴歸分析模型,如房屋價格訓練集如下:
面積 房間數量 樓層 房齡 價格
2104 5 1 45 460
1464 3 2 40 232
1534 2 1 36 315

xii=0,1,...n;xj; x^i 表示一個包含所有特徵的列向量(i = 0,1,...n);x_{j}表示某一特徵的全部樣本的列向量;

i=0,1,...n;xj; xjixij x_{j}^i表示樣本空間中x(i,j)的資料

  • 代價函式cost function

  • 梯度下降計算

  • 特徵縮放問題 1)特徵縮放事用來標準化資料特徵的範圍。針對多組特徵,當其中幾個特徵變換範圍很大時,進行梯度下降過程中產生的收斂軌跡效率會很低。 在這裡插入圖片描述 恰到好處的特徵縮放可以使整個等高區間類似於圓形,加快收斂速度。 2)特徵縮放方法 ①、訓練樣本/樣本最大值; ②、(訓練樣本–平均樣本值)/ 樣本範圍; 縮放後的特徵值不要求精確,但是不同特徵值之間差距不應大,減少偏移程度。

1.3正規方程

來源於多元方程的極值處偏導數為0。 對於求解預測函式θ的數值,除了使用梯度下降方法,還可以使用標準方程(Normal equation)。 假設訓練資料集有m個,特徵有n個,即有m行資料集,n個列特徵,得正規方程如下: 推導得出係數值的解:(偏導的推導過百度)

1.4兩種方法區別

梯度下降的學習速率會越來越小,需要調整改變;且迭代次數過多; 正規方程不需要迭代,但是需要計算矩陣的逆,運算量大; 經驗來說1萬樣本空間以內的資料可優先考慮正規方程解法,對於過多的訓練集有梯度下降法。

1.5雜項

1.只要學習速率足夠小,函式一定會收斂,但是迭代次數會增加。 2.正規方程一般均存在逆矩陣,但是當訓練集個數m比特徵n小時,可以考慮減少不必要的特徵數量。 3.學習效率一般試探規律:0.001,0.003,0.01,0.03,0.1,0.3,1…

備註:學習資源來自網易微專業吳恩達老師的機器學習視訊,以及其他大佬的總結,有錯誤請指正,謝謝。