吳恩達《機器學習》一元變數的線性迴歸
一元變數的線性迴歸是指通過單輸入變數預測單輸出結果,通過學習梯度下降演算法改善假設函式。輸入變數通過假設函式求得輸出值。
樣本集是指樣本的輸入和輸出值的集合,學習演算法這裡使用的是梯度下降演算法,假設函式是指假設出來的輸入和輸出之間的關係。x是指已知的輸入變數,y是指所求的輸出變數。
1假設函式
一元線性迴歸的假設函式的一般形式是
但假設函式的初始化是由樣本集猜想而來,並不知道初始化的假設函式是否準確。而且假設函式中引數
2 成本函式
成本函式是用來衡量假設函式的準確性的函式。成本函式的值越小,說明假設函式越準確。而我們的目標就是要提高假設函式的精度,故成本函式又稱為目標函式。
其中
3 梯度下降演算法
成本函式是來衡量假設函式的準確性,那提高假設函式的準確性則要靠梯度下降演算法。改變假設函式,其實是改變
實際上這是一個求極小值的過程,實際上若是目標函式是可以求導的情況下,引數較少的情況下,個人覺得是可以通過對每個自變數求偏導數,通過讓偏導數為零來求得目標函式最小化時的自變數。
但在不可求導或是引數太多以至於求值很困難的情況下,使用梯度下降演算法。該演算法目的是找出梯度下降的方向,是自變數沿著梯度逐步減小,最終收斂到區域性最小值。
repeat until convergence:
for j = 0 and j = 1
注意: