1. 程式人生 > >分類和邏輯迴歸(Classification and logistic regression)

分類和邏輯迴歸(Classification and logistic regression)

看了一下斯坦福大學公開課:機器學習教程(吳恩達教授),記錄了一些筆記,寫出來以便以後有用到。筆記如有誤,還望告知。
本系列其它筆記:
線性迴歸(Linear Regression)
分類和邏輯迴歸(Classification and logistic regression)
廣義線性模型(Generalized Linear Models)

分類和邏輯迴歸(Classification and logistic regression)

1 邏輯迴歸(Logistic regression)

h

θ ( x ) = g ( θ T x
) = 1 1 + e θ
T
x
h_{\theta}(x) = g(\theta^Tx) = \frac{1}{1+e^{-\theta^Tx}} , g ( z ) = 1 1 + e z g(z) = \frac{1}{1+e^{-z}} (logistic function / sigmoid function)

p ( y = 1 x ; θ ) = h θ ( x ) p(y=1|x;\theta) = h_\theta(x)

p ( y = 0 x ; θ ) = 1 h θ ( x ) p(y=0|x;\theta) = 1 - h_\theta(x)

p ( y x ; θ ) = ( h θ ( x ) ) y ( 1 h θ ( x ) ) 1 y p(y|x;\theta) = (h_\theta(x))^y(1 - h_\theta(x))^{1-y}
L ( θ ) = p ( y X ; θ ) = i = 1 m p ( y ( i ) x ( i ) ; θ ) = i = 1 m ( h θ ( x ( i ) ) ) y ( i ) ( 1 h θ ( x ( i ) ) ) 1 y ( i ) ( θ ) = log L ( θ ) = log i = 1 m ( h θ ( x ( i ) ) ) y ( i ) ( 1 h θ ( x ( i ) ) ) 1 y ( i ) = i = 1 m log ( ( h θ ( x ( i ) ) ) y ( i ) ( 1 h θ ( x ( i ) ) ) 1 y ( i ) ) = i = 1 m ( log ( ( h θ ( x ( i ) ) ) y ( i ) + log ( 1 h θ ( x ( i ) ) ) 1 y ( i ) ) = i = 1 m ( y ( i ) log ( h θ ( x ( i ) ) ) + ( 1 y ( i ) ) log ( 1 h θ ( x ( i ) ) ) ) L(\theta) = p(\vec y | X;\theta) \\ = \prod_{i=1}^{m} p(y^{(i)} | x^{(i)}; \theta) \\ = \prod_{i=1}^{m}(h_\theta(x^{(i)}))^{y^{(i)}}(1 - h_\theta(x^{(i)}))^{1-y^{(i)}} \\ \Downarrow \\ \ell(\theta) = \log L(\theta) \\ = \log \prod_{i=1}^{m}(h_\theta(x^{(i)}))^{y^{(i)}}(1 - h_\theta(x^{(i)}))^{1-y^{(i)}} \\ = \sum_{i=1}^{m} \log ((h_\theta(x^{(i)}))^{y^{(i)}}(1 - h_\theta(x^{(i)}))^{1-y^{(i)}}) \\ = \sum_{i=1}^{m}(\log ((h_\theta(x^{(i)}))^{y^{(i)}} + \log (1 - h_\theta(x^{(i)}))^{1-y^{(i)}}) \\ = \sum_{i=1}^{m}(y^{(i)} \log (h_\theta(x^{(i)})) + (1-y^{(i)}) \log (1 - h_\theta(x^{(i)})))

相關推薦

分類邏輯迴歸Classification and logistic regression

看了一下斯坦福大學公開課:機器學習教程(吳恩達教授),記錄了一些筆記,寫出來以便以後有用到。筆記如有誤,還望告知。 本系列其它筆記: 線性迴歸(Linear Regression) 分類和邏輯迴歸(Classification and logistic regression) 廣義線性模

分類邏輯回歸(Classification and logistic regression),廣義線性模型(Generalized Linear Models) ,生成學習算法(Generative Learning algorithms)

line learning nbsp ear 回歸 logs http zdb del 分類和邏輯回歸(Classification and logistic regression) http://www.cnblogs.com/czdbest/p/5768467.html

規則化模型選擇Regularization and model selection——機器學習:交叉驗證Cross validation

零 問題提出 在機器學習中的偏差與方差一文中提到了偏差與方差。那麼在多種預測模型,如線性迴歸(y=θTx),多項式迴歸(y=θTx^(1~m))等,應使用那種模型才能達到偏差與方差的平衡最優? 形式化定義:假設可選的模型集合是M={M1,M2,...,Md},比如SVM,

OpenTSDB的彙總預聚合Rollup And Pre-Aggregates

寫在前面 這是有關於OpenTSDB支援的有關配置,和預先設定聚合,不過這方面的應用還是太少,有待補充。 預聚集 雖然彙總有助於進行廣泛的時間跨度查詢,但如果度量標準具有高基數(即給定度量標準的唯一時間序列數),則仍會遇到小範圍的查詢效能問題。在上面的示例中,我們有

數字影象處理筆記——直方圖點操作Histograms and point operations

直方圖 我們根據灰度值的大小可以將灰度值相同的畫素分到同一組,將每個灰度值所含的畫素點數目畫出來得到的圖就是直方圖。 點操作 我們可以對每個畫素點的值進行改變,這種操作叫做點操作。 對比度增強 對比度增強就是將灰度值的範圍拉到已達到顏色差別更明顯的目的,

python 深拷貝淺拷貝shallow and deep copy

1,深拷貝和淺拷貝只相對於容器型別的物件(compound obejects)來說,對於原子型別的物件(atomic objects)沒有這個概念。看下面的程式碼: num = 123 num_c = num print(id(num), id(num_c)) num_c = 456 p

安卓四大元件 之 Activity 之 任務棧回收棧Tasks and Back Stack

本文摘要 |---Saving Activity State   |---Managing Tasks     |---Defining launch modes     |---Handling affinities     |---Clearing the back s

2.4變動最終變數Volatile and Final Variables

在前面的學習同步鎖顯示了兩個屬性:互斥和可見性。同步關鍵字連線著這兩個屬性。Java提供一個弱引用的僅僅用於同步可見性。它也連線著一個volatile的關鍵字。 假設你設計一個機制去停止一個執行緒(因為你不能用Thread的stop()方法,在這個任務中它是不安全的)。Li

C++Primer第五版 習題答案 第二章 變數基本型別variables and basic types

2.1 C++語言規定一個int至少和一個short一樣大,一個long至少和一個int一樣大,一個long long至少和一個long一樣大。每個的最小尺寸分別為:short,16位;int,16位;long,32位;long long,64位。 除去布林

區域性加權線性迴歸Locally weighted linear regression

緊接著之前的問題,我們的目標函式定義為: 我們的目標是最小化cost function: 換成線性代數的表述方式: 是mxm維的對角矩陣 是mxn維的輸入矩陣 是mx1維的結果 是nx1維的引數向量 令 有 既 權重定義為: 引數τ控制權重函式的寬度,τ越

機器學習——區域性加權線性迴歸Locally weighted linear regression

考慮從x∈R中預測y的問題。下面最左邊的圖顯示了將擬合到資料集的結果。我們看到資料並不是直線上的,所以擬合不是很好。取代原來的方法,如果我們加上一個額外的特徵 x2x2,並用 y=θ0+θ1x+θ2x2y=θ0+θ1x+θ2x2 來擬合數據,你會發現效果稍微好了那麼一點(看中

區域性加權迴歸Locally weighted linear regression

通常情況下的線性擬合不能很好地預測所有的值,因為它容易導致欠擬合(under fitting),比如資料集是一個鐘形的曲線。而多項式擬合能擬合所有資料,但是在預測新樣本的時候又會變得很糟糕,因為它導致資料的過擬合(overfitting),不符合資料真實的模型。 今天來講一種

PRML之線性迴歸Linear Models for Regression

囉嗦兩句,PRML這本書是基於貝葉斯思想進行相關機器學習演算法的推導和講解。書上有詳細的公司推導,故LZ不做公式方面的讀書筆記記錄,來講講演算法遞進的邏輯關係。 在開始記錄線性迴歸模型學習之前,容我們閉目獨立思考兩個問題:①什麼是機器學習?②機器學習的本質問題是什麼?這

機器學習實戰分類迴歸樹CARTClassification And Regression Tree

目錄 0. 前言 1. 迴歸樹 2. 模型樹 3. 剪枝(pruning) 3.1. 預剪枝 3.2. 後剪枝 4. 實戰案例 4.1. 迴歸樹 4.2. 模型樹

分類邏輯迴歸Multinomial Logistic Regression

前言 分類從結果的數量上可以簡單的劃分為: 二分類(Binary Classification) 多分類(Multinomial  Classification)。 其中二分類是最常見且使用最多的分類場景,解決二分類的演算法有很多,比如: 基本的K

邏輯迴歸logistic regression線性迴歸linear regression

序號 邏輯迴歸 線性迴歸 模型歸類 離散選擇法模型 迴歸分析 數值型別 二元 一元或多元 公式 P(Y=1│X=x)=exp(x'β)/(1+exp(x'β)) 邏輯迴歸 Logit模型(Logit model,也譯作“評定模型”,“分類評定模型”,又作Logistic

機器學習實戰邏輯迴歸LRLogistic Regression

目錄 0. 前言 1. Sigmoid 函式 2. 梯度上升與梯度下降 3. 梯度下降法(Gradient descent) 4. 梯度上升法(Gradient ascent) 5. 梯度下降/上升法的數學推導

廣義線性迴歸邏輯斯諦迴歸 Logistic Regression

廣義線性模型 邏輯斯諦迴歸概念可以認為是屬於廣義線性迴歸的範疇,但它是用來進行分類的。 線性模型的表示式為: f (

邏輯迴歸LR支援向量機SVM的區別聯絡

1. 前言 在機器學習的分類問題領域中,有兩個平分秋色的演算法,就是邏輯迴歸和支援向量機,這兩個演算法個有千秋,在不同的問題中有不同的表現效果,下面我們就對它們的區別和聯絡做一個簡單的總結。 2. LR和SVM的聯絡 都是監督的分類演算法。 都是線性分類方法 (不考慮核函式時)。 都是判別