斯坦福吳恩達CS229機器學習 P4牛頓方法
邏輯迴歸(牛頓法) 指數分不族 廣義線性模型;將邏輯迴歸和最小二乘模型聯絡在一起。 極大似然估計模型 (1)初始化thta,引數可初始化為0; (2) delta=f(thta0)/f’(thta0) thta1=thta0-delta=thta0-f(thta0)/f’(thta0); 牛頓方法的一次迭代: thta(t+1)=thta(t)-delta=thta(t)-f(thta(t))/f’(thta(t)); thta(t+1)=thta(t)-delta=thta(t)-l’(thta(t))/l’’(thta(t)); 使l(thta)最大化,l’(thta)=0; 找到一個點,使其導數為0;找到區域性最優解; 牛頓法是一個收斂速度非常快的方法。(二次收斂):誤差會變成之前的平方。
相關推薦
斯坦福吳恩達CS229機器學習 P4牛頓方法
邏輯迴歸(牛頓法) 指數分不族 廣義線性模型;將邏輯迴歸和最小二乘模型聯絡在一起。 極大似然估計模型 (1)初始化thta,引數可初始化為0; (2) delta=f(thta0)/f’(thta0) thta1=thta0-delta=thta0-f(thta
斯坦福吳恩達《機器學習》--Fitted value iteration
Fitted value iteration是為了近似連續狀態的MDP的價值函式。適用於n維連續狀態空間和離散動作空間的MDP。其核心思想是通過機器學習演算法將價值函式近似為狀態的線性或非線性函式。 演算法流程如下圖所示: 1.隨機的在狀態空間中選取m個取樣;
斯坦福吳恩達《機器學習》--增強學習
增強學習和控制 在監督學習中,演算法試圖模仿訓練機的labels y,訓練集中的每一個輸入x都有一個確定的對應的y,但是對於很多需要連續作決定的問題和控制問題,給演算法提供一個明確的標籤是很難的。例如我們有一個四足機器人,並且試圖讓他行走,開始的時候我們並不知道採取怎樣的操作使他行走
coursera-斯坦福-機器學習-吳恩達-應用機器學習的建議
10.1 決定下一步做什麼 參考視訊: 10 - 1 - Deciding What to Try Next (6 min).mkv 到目前為止,我們已經介紹了許多不同的學習演算法,如果你一直跟著這些視訊的進度學習,你會發現自己已經不知不覺地成為一個瞭解許多先進機器學習技術的專家了。 然而,
吳恩達《機器學習》課程總結(7)正則化
額外 分享 哪些 TP 回歸 分享圖片 表現 例子 兩個 7.1過擬合的問題 訓練集表現良好,測試集表現差。魯棒性差。以下是兩個例子(一個是回歸問題,一個是分類問題) 解決辦法: (1)丟棄一些不能幫助我們正確預測的特征。可以使用工選擇保留哪些特征,或者使用一些模型選擇
吳恩達《機器學習》課程總結(15)異常檢測
是否 5.6 問題 com 結果 平移 分享 出現問題 計算過程 15.1問題的動機 將正常的樣本繪制成圖表(假設可以),如下圖所示: 當新的測試樣本同樣繪制到圖標上,如果偏離中心越遠說明越可能不正常,使用某個可能性閾值,當低於正常可能性閾值時判斷其為異常,然後做進一步的
吳恩達老師機器學習筆記異常檢測(一)
明天就要開組會了,天天在辦公室划水都不知道講啥。。。 今天開始異常檢測的學習,同樣程式碼比較簡單一點 異常檢測的原理就是假設樣本的個特徵值都呈高斯分佈,選擇分佈較離散的樣本的作為異常值。這裡主要注意的是通過交叉驗證對閾值的選擇和F1score的應用。 原始資料: 程式碼如下:
吳恩達老師機器學習筆記主成分分析PCA
接著學習主成分分析,這個演算法在之前計量地理學的作業裡寫過,不過前者稍微囉嗦了一點。 原始二維資料: 放程式碼: load('ex7data1.mat'); [m n]=size(X); X=(X-mean(X))./std(X); sigma=1/m*(X'*X); % 求取協
吳恩達老師機器學習筆記K-means聚類演算法(二)
運用K-means聚類演算法進行影象壓縮 趁熱打鐵,修改之前的演算法來做第二個練習—影象壓縮 原始圖片如下: 程式碼如下: X =imread('bird.png'); % 讀取圖片 X =im2double(X); % unit8轉成double型別 [m,n,z]=size
吳恩達老師機器學習筆記K-means聚類演算法(一)
今天接著學習聚類演算法 以後堅決要八點之前起床學習!不要浪費每一個早晨。 K-means聚類演算法聚類過程如下: 原理基本就是先從樣本中隨機選擇聚類中心,計算樣本到聚類中心的距離,選擇樣本最近的中心作為該樣本的類別。最後某一類樣本的座標平均值作為新聚類中心的座標,如此往復。 原
吳恩達老師機器學習筆記SVM(二)
今天的部分是利用高斯核函式對分佈稍微複雜一點的資料進行分類 這裡的高斯核函式是構建新的特徵,該特徵是關於到其餘所有樣點的歐式距離。 下面放出程式碼: load('ex6data2.mat'); [m n]=size(X); f=zeros(m,m); a=0.005 for i=
吳恩達老師機器學習筆記SVM(一)
時隔好久沒有再拾起機器學習了,今日抽空接著學 今天是從最簡單的二維資料分類開始學習SVM~ (上圖為原始資料) SVM的代價函式 這裡套用以前logistic迴歸的模板改一下下。。 load('ex6data1.mat'); theta=rand(3,1); [
【吳恩達】機器學習第10章學習收穫
神經網路總結 step1:選擇神經網路架構 確定輸入單元數(一般與訓練集特徵數相符)、輸出單元數、以及隱藏層。如果隱藏層大於1層,那麼所有的隱藏層的單元數應該相等。 如圖:輸出單元為3,輸出單元為4,隱藏層單元數為5。如果訓練集(x,y),y有四個值{1,2,3,4
【吳恩達】機器學習ex3程式設計練習
1. function [J, grad] = lrCostFunction(theta, X, y, lambda) %LRCOSTFUNCTION Compute cost and gradient for logistic regression with %regu
【吳恩達】機器學習第13章下以及ex6程式設計作業
1.核函式 這裡的核函式的定義是高斯核函式。度量的是x與l值之間的歐式距離。 對於高斯核函式來說,L一般被稱為標記點,一般直接選取樣本中的X,比如 那麼我們如何計算f呢: 對於每一個來說,我們選定x,然後使用不同的來計算: 比如 因此,m是樣本個數。 n
【吳恩達】機器學習第14章k-Means以及ex7-k-means程式設計練習
1.K-means方法是什麼? 1.首先K-meas方法是一種無監督的聚類問題。 2.方法內容:首先需要確定聚類中心u和聚類數量K:我們可以隨機選擇中心u;當K<m(m是樣本數),我們可以隨機選擇K個樣本作為聚類中心,這個方法一般效果會好一些。聚類數量K我們可以通過
【吳恩達】機器學習第14章PCA以及ex7PCA程式設計練習
1.PCA思想: PCA有兩個作用,一個是降維,一個是資料視覺化。通過降維可以達到資料視覺化的目標。將D維降到K維:尋找K個向量,然後將樣本點投影到這K個向量中,使得投影誤差最小。比如:從2D到1D:找一條直線,將空間中的點垂直投影到這條直線距離上(正交距離),求一條使得這
【吳恩達】機器學習第16章異常檢測以及ex8部分程式設計練習
1.異常檢測 1.1思路簡述 首先是一些沒有標籤的資料進行p(x)建模,就是擬合數據得到一個符合資料規律的p(x),然後根據一個特定的閾值來判斷,是否異常。 1.2具體步驟(假設p(x)符合高斯) 在octave中,我們可以使用hist視覺化直方圖來看資料是否是高斯分
【吳恩達】機器學習第17章推薦系統以及ex8推薦系統程式設計題
1.基於內容的推薦系統 以電影推薦為例,先介紹以下引數: r(i,j)表示使用者j對於電影i是否進行了評分。1表示已經評分,0表示沒有評分。 表示使用者j對電影i的評分情況。總共1-5分。 表示對使用者j喜愛電影題材的描述情況.比如(0,5,0)表示每列分別對應玄
寫吳恩達老師機器學習課時使用scipy.optimize.fmin_cg結果出現問題
訓練完成提示: Warning: Desired error not necessarily achieved due to precision loss. Current function value: 原因是我前邊的def computeCost(m