#機器學習筆記01#多變數線性迴歸
阿新 • • 發佈:2018-12-19
1多變數線性迴歸
1.1 回顧單變數線性迴歸
- 訓練集提出: Training set of housing prise 以房屋價格為例
Size in feet(x) | Price in 1000’s (y) |
---|---|
2104 | 460 |
1416 | 232 |
1532 | 315 |
852 | 178 |
… | … |
- 假設函式Hypothesis
- 代價函式 cost function 平方誤差和函式:
- 梯度下降
Want min J(theat 0 , theat 1 );
其中α表示步長,每次前進梯度的權重;每次對θi進行負梯度方向的更新,一旦對應的代價函式取值足夠小則認為找到區域性最小值。
並且
- 梯度下降結合線性迴歸,求導計算結果如下
1.2多元梯度下降問題
面積 | 房間數量 | 樓層 | 房齡 | 價格 |
---|---|---|---|---|
2104 | 5 | 1 | 45 | 460 |
1464 | 3 | 2 | 40 | 232 |
… | … | … | … | … |
1534 | 2 | 1 | 36 | 315 |
-
特徵縮放問題 1)特徵縮放事用來標準化資料特徵的範圍。針對多組特徵,當其中幾個特徵變換範圍很大時,進行梯度下降過程中產生的收斂軌跡效率會很低。 恰到好處的特徵縮放可以使整個等高區間類似於圓形,加快收斂速度。 2)特徵縮放方法 ①、訓練樣本/樣本最大值; ②、(訓練樣本–平均樣本值)/ 樣本範圍; 縮放後的特徵值不要求精確,但是不同特徵值之間差距不應大,減少偏移程度。
1.3正規方程
來源於多元方程的極值處偏導數為0。 對於求解預測函式θ的數值,除了使用梯度下降方法,還可以使用標準方程(Normal equation)。 假設訓練資料集有m個,特徵有n個,即有m行資料集,n個列特徵,得正規方程如下: 推導得出係數值的解:(偏導的推導過百度)
1.4兩種方法區別
梯度下降的學習速率會越來越小,需要調整改變;且迭代次數過多; 正規方程不需要迭代,但是需要計算矩陣的逆,運算量大; 經驗來說1萬樣本空間以內的資料可優先考慮正規方程解法,對於過多的訓練集有梯度下降法。
1.5雜項
1.只要學習速率足夠小,函式一定會收斂,但是迭代次數會增加。 2.正規方程一般均存在逆矩陣,但是當訓練集個數m比特徵n小時,可以考慮減少不必要的特徵數量。 3.學習效率一般試探規律:0.001,0.003,0.01,0.03,0.1,0.3,1…
備註:學習資源來自網易微專業吳恩達老師的機器學習視訊,以及其他大佬的總結,有錯誤請指正,謝謝。