1. 程式人生 > >萌新向Python數據分析及數據挖掘 第三章 機器學習常用算法 第二節 線性回歸算法 (上)理解篇

萌新向Python數據分析及數據挖掘 第三章 機器學習常用算法 第二節 線性回歸算法 (上)理解篇

機器 算法 數據挖掘 一個 函數 數量 一條直線 就是 線性回歸

理解
以a b為變量,預測值與真值的差的平方和為結果的函數 參數學習的基本方法:找到最優參數使得預測與真實值差距最小
假設可以找到一條直線 y = ax+b 使得預測值與真值的差的平方和最小
故事
假設你面前有一堆男人
這些男人的基本信息全部掌握,包括他們的年收入
簡單線性回歸
簡單線性回歸的思想就是:假設你相信,這些男人的身高越高,年收入越高,然後找到一個一元線性方程 ,讓這個方程猜得最準,然後 把這個方程記下來,以後見到男人 就看身高,知道身高就猜他的年收入
多元線性回歸
多元線性回歸的思想就是:假設你相信,這些男人的身高越高,年收入越高(或者越低),同家裏房子的數量越多,年收入越高,等等等等 然後找到多元線性方程 ,讓這個方程猜得最準,然後 把這個方程記下來,以後見到男人 就看身高 家裏幾套房等等你之前相信的東西,知道身高就猜他的年收入

何謂猜得準
損失函數
你在不斷嘗試找尋真命天子函數過程中,預測的值和 真實值的差距,常用方法是MSE,比如 你猜他收入10w一年,結果他是0收入,那麽對於這個男的 誤差就是10w,把這些誤差的平方和加起來就構成了一個簡單的損失,損失越小猜得越準

技術分享圖片

萌新向Python數據分析及數據挖掘 第三章 機器學習常用算法 第二節 線性回歸算法 (上)理解篇