1. 程式人生 > >機器學習中的迴歸(regression)與分類(classification)問題

機器學習中的迴歸(regression)與分類(classification)問題

分類模型和迴歸模型本質一樣,分類模型是將回歸模型的輸出離散化。

舉幾個例子:

1. Logistic Regression 和 Linear Regression:

  • Linear Regression: 輸出一個標量 wx+b,這個值是連續值,所以可以用來處理迴歸問題。
  • Logistic Regression:把上面的 wx+b 通過 sigmoid函式對映到(0,1)上,並劃分一個閾值,大於閾值的分為一類,小於等於分為另一類,可以用來處理二分類問題。
  • 更進一步:對於N分類問題,則是先得到N組w值不同的 wx+b,然後歸一化,比如用 softmax函式,最後變成N個類上的概率,可以處理多分類問題。

2. Support Vector Regression 和 Support Vector Machine:

  • SVR:輸出 wx+b,即某個樣本點到分類面的距離,是連續值,所以是迴歸模型。

  • SVM:把這個距離用 sign(·) 函式作用,距離為正(在超平面一側)的樣本點是一類,為負的是另一類,所以是分類模型。

3. 神經網路用於 分類 和 迴歸:

  • 用於迴歸:最後一層有m個神經元,每個神經元輸出一個標量,m個神經元的輸出可以看做向量 v,現全部連到一個神經元上,則這個神經元輸出wv+b,是一個連續值,可以處理迴歸問題,跟上面 Linear Regression 思想一樣。

  • 用於N分類:現在這m個神經元最後連線到 N 個神經元,就有 N 組w值不同的 wv+b,同理可以歸一化(比如用 softmax )變成
    N個類上的概率。

拓展: 上面的例子其實都是從 prediction 的角度舉例的,如果從training角度來看,分類模型和迴歸模型的目標函式不同,分類常見的是 log loss, hinge loss, 而回歸是 square loss。

1.迴歸問題的應用場景

迴歸問題通常是用來預測一個值,如預測房價、未來的天氣情況等等,例如一個產品的實際價格為500元,通過迴歸分析預測值為499元,我們認為這是一個比較好的迴歸分析。一個比較常見的迴歸演算法是線性迴歸演算法(LR)。另外,迴歸分析用在神經網路上,其最上層是不需要加上softmax函式的,而是直接對前一層累加即可。迴歸是對真實值的一種逼近預測。

2.分類問題的應用場景

分類問題是用於將事物打上一個標籤,通常結果為離散值。例如判斷一幅圖片上的動物是一隻貓還是一隻狗,分類通常是建立在迴歸之上,分類的最後一層通常要使用softmax函式進行判斷其所屬類別。分類並沒有逼近的概念,最終正確結果只有一個,錯誤的就是錯誤的,不會有相近的概念。最常見的分類方法是邏輯迴歸,或者叫邏輯分類。

3.如何選擇模型

下面一幅圖可以告訴實際應用中我們如何選擇合適的模型。
這裡寫圖片描述

相關推薦

機器學習迴歸(regression)分類(classification)問題

分類模型和迴歸模型本質一樣,分類模型是將回歸模型的輸出離散化。 舉幾個例子: 1. Logistic Regression 和 Linear Regression: Linear Regression: 輸出一個標量 wx+b,這個值是連續值,所以可以用

李巨集毅機器學習課程--迴歸(Regression)

  李老師用的是精靈寶可夢做的比喻,假設進化後的寶可夢的cp值(Combat Power)與未進化之前的寶可夢的cp值相關,我們想找出這兩者之間的函式關係,可以設進化後的cp值為y,進化之前的cp值為x:y = b + w*x (不只可以設一次項,還可以設定二次項,三次項

理解機器學習的偏差方差

原文:https://blog.csdn.net/simple_the_best/article/details/71167786  學習演算法的預測誤差, 或者說泛化誤差(generalization error)可以分解為三個部分: 偏差(bias), 方差(varia

機器學習入門 Linear RegressionNormal Equation

也歡迎大家轉載本篇文章。分享知識,造福人民,實現我們中華民族偉大復興!                本文會講到:(1)另一種線性迴歸方法:Normal Equation;(2)Gradient Descent與Normal Equation的優缺點;前面我們通

機器學習擬合過擬合

擬合的基礎概念。首先任何函式都可以用多項式f(x)的方式去趨近,因此我們令f(x) = w0x0+w1x1+...+wnxn.首先,用一個例子來理解什麼是過擬合,假設我們要根據特徵分類{男人X,女人O}

機器學習Logistic Regression的個人理解

這段時間一直在看Andrew Ng的機器學習的公開課,感覺真的是很棒,極力推薦大家去看,這是對應的網易公開課的連結: 在看Logistic Regression的過程中,Ng首先介紹了伯努利分佈{0,1},而後引入sigmoid函式,之後就說我們假設(Le

從重取樣到資料合成:如何處理機器學習的不平衡分類問題?

轉自:http://www.sohu.com/a/129333346_465975 選自Analytics Vidhya 作者:Upasana Mukherjee 機器之心編譯 參與:馬亞雄、微胖、黃小天、吳攀 如果你研究過一點機器學習和資料科學,你肯定遇到過不平衡的類分

機器學習的LR SVM 相同和不同

1.前言 本篇部落格是轉載自LR 與 SVM 的相同和不同,在此感謝此篇部落格的作者。筆者重新排版了一下,以方便日後自己回顧。 2.SVM與LR的相同點的問題 問題1:為什麼將LR和SVM放在一起來進行比較? 第一,LR和SVM都是分類演算法。 看到這裡很多人

機器學習實戰(八)分類迴歸樹CART(Classification And Regression Tree)

目錄 0. 前言 1. 迴歸樹 2. 模型樹 3. 剪枝(pruning) 3.1. 預剪枝 3.2. 後剪枝 4. 實戰案例 4.1. 迴歸樹 4.2. 模型樹

區分識別機器學習分類迴歸

預測建模是關於學習從輸入到輸出的函式對映的問題,這個對映稱作函式逼近。 分類是給一個樣本預測離散型類別標籤的問題。 迴歸是給一個樣本預測連續輸出量的問題。 本教程分為以下 5 個部分: 1. 函式逼近 2. 分類

機器學習分類迴歸的解決區別

機器學習可以解決很多問題,其中最為重要的兩個是 迴歸與分類。 這兩個問題怎麼解決, 它們之間又有什麼區別呢? 以下舉幾個簡單的例子,以給大家一個概念 1. 線性迴歸 迴歸分析常用於分析兩個變數X和Y 之間的關係。 比如 X=房子大小 和 Y=房價 之間的關係, X=(公園人流量,公園門票票價

機器學習分類迴歸問題的區別聯絡

分類和迴歸問題之間存在重要差異。 從根本上說,分類是關於預測標籤,而回歸是關於預測數量。 我經常看到諸如以下問題: 如何計算迴歸問題的準確性? 像這樣的問題是沒有真正理解分類和迴歸之間的差異以及試圖衡量的準確度的症狀。 在本教程中,您將發現分類和迴歸之間的差異。

機器學習筆記04:邏輯迴歸(Logistic regression)、分類(Classification)

說明:本文章所有圖片均屬於Stanford機器學課程,轉載請註明出處 面對一些類似迴歸問題,我們可以通過線性迴歸方法來擬合一個函式,以此來預測資料,但它的輸出是連續的。有時候呢,我們需要一種方法給出一個判定結果,例如”同意(agree)”、”不同意

先驗概率、後驗概率、似然函式機器學習概率模型(如邏輯迴歸)的關係理解

看了好多書籍和部落格,講先驗後驗、貝葉斯公式、兩大學派、概率模型、或是邏輯迴歸,講的一個比一個清楚 ,但是聯絡起來卻理解不能   基本概念如下   先驗概率:一個事件發生的概率 \[P(y)\] 後驗概率:一個事件在另一個事件發生條件下的條件概率 \[P(y|x

機器學習 | 詳解GBDT在分類場景的應用原理公式推導

本文始發於個人公眾號:**TechFlow**,原創不易,求個關注 今天是**機器學習專題**的第31篇文章,我們一起繼續來聊聊GBDT模型。 在上一篇文章當中,我們學習了GBDT這個模型在迴歸問題當中的原理。GBDT最大的特點就是對於損失函式的降低不是通過調整模型當中已有的引數實現的,若是通過

李巨集毅機器學習課程筆記-4.1分類簡介及其迴歸的區別

[TOC] # 分類模型應用案例(Classification Cases) - 信用評分(Credit Scoring) - 輸入:收入、儲蓄、職業、年齡、信用歷史等等 - 輸出:是否貸款 - 醫療診斷(Medical Diagnosis) - 輸入:現在症狀、年齡、性別、病史 - 輸出:哪種疾病

機器學習的範數規則化之(一)L0、L1L2範數

[0 證明 基本上 復雜度 所有 img 方法 風險 機器學習 機器學習中的範數規則化之(一)L0、L1與L2範數 [email protected]/* */ http://blog.csdn.net/zouxy09 轉自:http://blog.csdn.n

機器學習分類算法的優缺點比較

參考 情況 strong lib 而不是 表達式 出版社 函數 導致 文章轉自:http://bbs.pinggu.org/thread-2604496-1-1.html 1決策樹(Decision Trees)的優缺點 決策樹的優點: 一、 決策

機器學習的範數規則化之L0、L1L2範數

實驗 方程 為什麽 over 大數據 來講 退回 數據庫 解釋   今天看到一篇講機器學習範數規則化的文章,講得特別好,記錄學習一下。原博客地址(http://blog.csdn.net/zouxy09)。   今天我們聊聊機器學習中出現的非常頻繁的問題:過擬合與規則化。我

先驗概率、後驗概率、似然函數機器學習概率模型(如邏輯回歸)的關系理解

集中 並且 結果 概率論 但我 evidence logs 硬幣 之前 看了好多書籍和博客,講先驗後驗、貝葉斯公式、兩大學派、概率模型、或是邏輯回歸,講的一個比一個清楚 ,但是聯系起來卻理解不能 基本概念如下 先驗概率:一個事件發生的概率 \[P(y)\] 後驗概