1. 程式人生 > >機器學習筆記 第5課:線性迴歸演算法

機器學習筆記 第5課:線性迴歸演算法

線性迴歸可能是統計學和機器學習中最知名且易於理解的演算法之一。

它不就是一項起源於統計學的技術嗎?

預測建模主要關注的是讓模型的誤差最小化,或者說,在可以解釋的前提下,儘可能作出最準確的預測。我們會借用,重用,甚至是竊取許多不同領域(包括統計學)的演算法,並將其用於上述的目標。

線性迴歸通常表示為這樣一個等式:

通過查詢特定的稱為係數(B)的輸入變數的權重,來描述最符合輸入變數(x)和輸出變數(y)之間關係的直線。

例如:y = B0 + B1 * x

我們將在給定輸入x的情況下預測y。線性迴歸學習演算法的目標是找到係數B0和B1的值,並且讓預測值和真實值之間的誤差最小化。

可以使用不同的技術從資料中學習(訓練)線性迴歸模型,例如,最小二乘法的線性代數解,和梯度下降優化法。

線性迴歸已經存在了200多年,得到了廣泛研究。使用此技術的要點是刪除非常相似(相關)的變數,並儘可能消除資料中的噪聲。

這是一種快速而簡單的技術,值得嘗試的第一個好演算法。