【機器學習基石筆記】二、感知機
感知機算法:
1、首先找到點,使得sign(wt * xt) != yt,
那麽如果yt = 1,說明wt和xt呈負角度,wt+1 = wt + xt能令wt偏向正角度。
如果yt = -1, 說明xt和wt呈正角度,wt+1 = wt - xt 能令wt偏向負角度。
總之,參數更新為wt+1 = wt + yt * xt
2、直到分好為止。數據需要線性可分。
算法證明:
1、假設wf是正確的,證明wn和wf越來越接近,內積越來越大
wf * wt+1 = wf*wt + wf*yt*xt > wf * wt, 原因是對任何t,wf分類正確,那麽sign(wf * xt) = yt,那麽wf * yt * xt > 0
2、wt增長的不太快
||wt+1|| = ||wt|| + ||xt|| - 2wt * yt * xt < ||wt|| + ||xt||
3、角度變化
內積增長量級是n, 長度增長量級是sqrt(n),所以會收斂。
優缺點:
優點:簡單、易實現、高維也可以。
缺點:線性可分、停止時間(由wf決定)
線性不可分怎麽辦
1、Min犯錯誤的點, np-hard問題。
pocket 貪心算法
2、就瞎跑
【機器學習基石筆記】二、感知機
相關推薦
【機器學習基石筆記】二、感知機
證明 機器學習 sign 線性可分 缺點 學習 犯錯 nbsp 錯誤 感知機算法: 1、首先找到點,使得sign(wt * xt) != yt, 那麽如果yt = 1,說明wt和xt呈負角度,wt+1 = wt + xt能令wt偏向正角度。 如果yt = -1, 說
【機器學習基石筆記】一、綜述
model 但是 目標 學習 imp 選擇 處理 定義 條件 課程定位: 註重基礎、故事性 機器學習定義: data - Algo - improve 機器學習使用條件 1、有優化的目標,可量化的。 2、規則不容易寫下來,需要學習。 3、要有數據 一個可能的推薦
【機器學習基石筆記】三、不同類型的機器學習
質數 一個 非監督 輸入 編號 不同 象棋 按順序 pla 一、不同的output 1、二分類 2、多分類 3、回歸問題 4、structured learn: 從一個句子 -> 句子每個 詞的詞性。 輸出是一個結構化的東西。 例子:蛋白質數據 ->
【機器學習基石筆記】四、無法學習?
機器學習 估計 事情 永遠 pro app out 天下 oba 天下沒有白吃的午餐,從樣本內到樣本外永遠無法估計。 抽樣的話,樣本內頻率和樣本外概率相等PAC (probably approximately correct) 一個重要的事情是樣本要在總體分布中取。 E
【機器學習筆記】二、 Regression迴歸
一、基礎 這裡面,輸入變數x有兩個,一個是居住面積(living area),一個是房間數目(bedrooms)。 所以x 是一個二維向量。表示第i組資料中的居住面積(living area)。表示第i組資料中的房間數目。 我們假設輸入和輸出呈線性關係,那麼便有下面的公式
【C++學習筆記】二、對於C++語法新手常犯的錯誤
從python到C++,表示需要注意的習慣性細節還是蠻多的,作為一個不看就忘星人,還是決定老老實實把一個個易錯點記錄下來,也再一次加深印象。 首先看個樣例,來自譚浩強老師的《C++程式設計第3版》,第一章習題9: #include <iostream> using namespa
【機器學習詳解】線性迴歸、梯度下降、最小二乘的幾何和概率解釋
線性迴歸 即線性擬合,給定N個樣本資料(x1,y1),(x2,y2)....(xN,yN)其中xi為輸入向量,yi表示目標值,即想要預測的值。採用曲線擬合方式,找到最佳的函式曲線來逼近原始資料。通過使得代價函式最小來決定函式引數值。 採用斯坦福大學公開課的
【機器學習基本理論】詳解最大似然估計(MLE)、最大後驗概率估計(MAP),以及貝葉斯公式的理解
總結 ora 二次 判斷 天都 特性 以及 解釋 意思 【機器學習基本理論】詳解最大似然估計(MLE)、最大後驗概率估計(MAP),以及貝葉斯公式的理解 https://mp.csdn.net/postedit/81664644 最大似然估計(Maximum lik
【機器學習實戰系列】讀書筆記之AdaBoost演算法公式推導和例子講解(一)
最近在看整合演算法AdaBoost,推薦先看李航的統計學習方法第8章,然後再看機器學習實戰第7章,李航的書上的公式推導講的很詳細了,但是很多地方對於初學者來說,還是需要時間去理解和消化的。本文將從以下幾個方面來介紹AdaBoost演算法。一、AdaBoost演算法公式推導二、
【機器學習PAI實踐十二】機器學習演算法基於信用卡消費記錄做信用評分
背景 如果你是做網際網路金融的,那麼一定聽說過評分卡。評分卡是信用風險評估領域常用的建模方法,評分卡並不簡單對應於某一種機器學習演算法,而是一種通用的建模框架,將原始資料通過分箱後進行特徵工程變換,繼而應用於線性模型進行建模的一種方法。 評分卡建模理論常
【機器學習詳解】KNN分類的概念、誤差率及其問題
勿在浮沙築高臺 KNN概念 KNN(K-Nearest Neighbors algorithm)是一種非引數模型演算法。在訓練資料量為N的樣本點中,尋找最近鄰測試資料x的K個樣本,然
【機器學習詳解】解無約束優化問題:梯度下降、牛頓法、擬牛頓法
無約束優化問題是機器學習中最普遍、最簡單的優化問題。 x∗=minxf(x),x∈Rn 1.梯度下降 梯度下降是最簡單的迭代優化演算法,每一次迭代需求解一次梯度方向。函式的負梯度方向代表使函式值減小最快的方向。它的思想是沿著函式負梯度方向移動逐步逼
【平差軟體學習---科傻】二、原始資料檔名的規則
關鍵詞:科傻平差檔案平面檔案編輯器、徠卡gis|天寶原始資料轉科傻in1平差檔案、高程平差軟體、高程資料怎麼平差,附和導線怎麼平差、無定向導線平差軟體。 科傻的資料編輯讓現在的人很蛋疼。他視覺化,但是就差那麼一部就完美了,這點我局的人家南方平差易和清華山維做的不錯。最起碼是個表格方式的編輯方式。 科傻要自
【機器學習實戰系列】讀書筆記之KNN演算法(三)
本次讀書筆記在於延續上一篇部落格的工程,做出微小的改動,即使用Matplotlib建立散點圖(散點圖使用DataMat矩陣的第一、第二列資料)。首先還是介紹一個相關知識點,方便程式碼瀏覽。知識點一:1、在使用Matplotlib生成圖表時,預設不支援漢字,所有漢字都會顯示成框
【機器學習之數學】03 有約束的非線性優化問題——拉格朗日乘子法、KKT條件、投影法
目錄 將有約束問題轉化為無約束問題 拉格朗日法 KKT條件 拉格朗日法更新方程 凸優化問題下的拉格朗日法 罰函式法 對梯度演
【仿doT前端模板】二、if else
查看 繼續 ons cnblogs 第一個 關系 light 註意 參考 效果預覽 首先,按照慣例,我們先看doT 實現的效果: 模板: {{? it.name }} <div>嗨, {{=it.name}}!</div> {{?? it
機器學習基石筆記-Lecture 10 Logistic regression
pan wiki app 方向 resource 註意 實現 comment sce soft binary classification的概念:軟二分類,不直接化為-1、1,而是給出一個概率值。 目標函數是一個概率值,但是拿到的data中y只有0、1(或者-1、1),可以
機器學習基石筆記-Lecture 9 Linear regression
空間 -i 結果 thumb src 9.png http regress containe 線性回歸的任務是對於一個輸入,給出輸出的實數,保證和真實輸出相差越小越好。因為假設空間是線性的,所以最後的g會是直線或者平面。 通常的誤差衡量方法是使用平方誤差 接下來的問題是
機器學習基石筆記-Lecture 4 Learning is possible
odi ima ffd containe 概率 count lin comm learning hoeffding 不等式 說明了在樣本量足夠大時,抽樣估計能夠接近真實值。 類比到ml中,對給定的一個假設空間中的h, 它在整個樣本空間中的表現可以由在部分樣本點上的表現來
機器學習基石筆記-Lecture 3 Types of learning
mage 針對 也有 tac nts 反饋 機器學習 ear odi 介紹了機器學習中的幾類問題劃分。 半監督學習能夠避免標記成本昂貴的問題。 強化學習,可以看做是從反饋機制中來學習。 在線學習,數據一個接一個地產生並交給算法模型線上叠代。 主動學習,機器能