1. 程式人生 > >機器學習中的代價函式

機器學習中的代價函式

1、線上性迴歸中我們有一個像這樣的訓練集, m 代表了訓練樣本的數量,比如 m = 47。而我們的假設函式,也就是用來進行預測的函式,是這樣的線性函式形式:       2、接下來為型選擇合適的引數θ0 和 θ1,這兩個引數稱為模型引數。在房價問題這個例子中便是直線的斜率和在 y 軸上的截距。我們選擇的引數決定了我們得到的直線相對於我們的訓練集的準確程度,模型所預測的值與訓練集中實際值之間的差距(下圖中藍線所指)就是建模誤差( modeling error)。       3、我們的目標便是選擇出可以使得建模誤差的平方和能夠最小的模型引數。 即使得代價函式最小。這個函式也叫線性迴歸的整體目標函式。            也就是意味著得出θ0 和 θ1這兩個引數,使得假設函式表示的直線儘量與下面紅色的資料點很好的擬合。       4、代價函式也被稱為平方誤差函式,或平方誤差代價函式。 5、平方誤差代價函式是解決迴歸問題最常用的手段
6、採用梯度演算法來自動地找出這些使代價函式 J 取最小值的引數 θ0 和 θ1 來。