1. 程式人生 > >吳恩達機器學習筆記——梯度下降法

吳恩達機器學習筆記——梯度下降法

1:假設函式的引數更新要做到同時更新,即先將求得的引數放在統一的temp中,然後同時賦值給對應的引數w0,w1,w2,w3.....

2:特徵縮放和收斂速度問題

倘若,特徵向量中一些特徵值相差太大,就會導致代價函式特徵引數的函式曲線很密集,以至於需要多次迭代才能達到最小值。

學習率:決定演算法收斂的速度,較大的學習率,收斂速度較快,但是可能超過區域性最小值,以至於代價函式不再收斂。

而較小的學習率,固然可以避免出現超過代價函式區域性最小值問題,但是由於學習率較小很可能要通過很多事迭代,才能收斂到代價函式的區域性的最小值。上面兩個弊端要衡量把握好。