1. 程式人生 > >白話——胡說影象分類器

白話——胡說影象分類器

以下資訊全部是作者的個人理解,記錄下來方便用簡單的視角去理解複雜的問題,其中不乏胡說八道和想當然,如有與事實不符的地方,請大家多多批評指正!

影象分類器最早誕生的應該是貝葉斯分類器:
為什麼?因為貝葉斯網路實際上就是把各種可能性串聯起來,完全符合人腦的推理過程,
樸素貝葉斯分類器:貝葉斯網路實際上是由N種可能性構成的樹組成的,比如,下圖照片中一張紅桃A,貝葉斯演算法的推斷過程如下:


->一張撲克牌(90%的可能性)->一張帶紅心的撲克牌(80%)->一張帶紅心帶A字母的撲克牌(80%)->一張紅桃A撲克牌
                                                                                          ->一張帶紅心帶阿拉伯數字4的撲克牌(20%)->一張錯誤的紅桃4撲克牌
                                             ->一張帶黑桃的撲克牌(20%)->一張帶黑桃帶A字母的撲克牌(80%)->一張黑桃A撲克牌
                                                                                          ->一張帶黑桃帶阿拉伯數字4的撲克牌(20%)->一張錯誤的黑桃4撲克牌 
大家看上述的推斷,是不是就形成了一個有主幹有分叉的樹,這就是最基本的樸素貝葉斯分類器,推斷的可能性形成了一棵樹,所以叫“樸素(樹)”,那麼在貝葉斯的主要思想領域內,又有一些人進行了一些優化,無非就是增加一些引數閥值之類的,把樹變成圖,讓可能性節點可以在樹枝之間流通,目的都是為了使分類更準確 

雖然很容易被理解, 但是,樸素貝葉斯分類器不能對複雜影象資料進行準確的推斷和分類,數字影象資訊量龐大,樸素貝葉斯分類器僅僅只能針對特徵明顯或者一維空間可分的影象進行分類。

隨著計算機運算能力的發展,使得大規模的分類運算帶來了可能,於是就誕生了神經網路分類器, 神經網路,就是模擬人的大腦的工作方式,用大量分類器節點模擬人腦的“處突”,進行大型分類運算。每一個“處突”分類器節點可以是一個“貝葉斯分類器”
人工神經網路:由N多個類似於“貝葉斯演算法”的分類器組成的集合,一起進行推斷。

注:每個藍圓點都看作一個貝葉斯分類器,這樣便於理解

好了,看到這裡,或許就明白了,為啥現在這麼多人都在研究神經網路了?因為在這樣的系統架構下,可以發揮的空間和潛力是巨大的
但這種架構治標不治本,真正決定影象分類效果的,還是每一個具體節點裡的演算法,而大量節點的參與,只不過是一種“人海戰術”(機海) 

於是人們就開始思考怎樣讓複雜而又難以分類的影象資料,變得可分, 於是“支援向量機”分類器就誕生了
支援向量機分類器:一句話概括,將低維空間中不可分的資料轉換到高維度空間,使其可分

支援向量機這個名字太學術化了,讓人望而生畏,其實沒那麼複雜。比如,依舊是上述紅桃A撲克牌,支援向量機的工作過程是怎樣的呢?

數字影象二維資料(x軸資料,y軸資料)->(是否可分)->三維資料(x軸灰度,y軸灰度,整體顏色值)->(是否可分)->四維資料(x軸灰度,y軸灰度,x軸顏色,y軸顏色)……

看到這裡,你或許就明白了,支援向量機就是把原始混雜無規律的資料按一定規則篩選出來,尋找篩選出來的資料規律,直到找到規律為止。

所以,支援向量機分類的好壞,取決於篩選規則的設定,也就是所謂的核函式。那麼支援向量機就真正從數字的意義上對影象的內容進行學習了,所以也是現在研究的熱門!

今天就先寫到這裡,希望能幫助大家理解這些概念,傳統的資料上總是寫一大堆的數學公式,其實很多都沒必要,用公式去表達概念,就是數學界的文言文,有點裝的意思哈。

相關推薦

白話——胡說影象分類

以下資訊全部是作者的個人理解,記錄下來方便用簡單的視角去理解複雜的問題,其中不乏胡說八道和想當然,如有與事實不符的地方,請大家多多批評指正! 影象分類器最早誕生的應該是貝葉斯分類器: 為什麼?因為貝葉

用PyTorch建立一個影象分類?So easy!(Part 1)

經過了幾個月的學習和實踐,我完成了優達學城網站上《Python Programming with Python Nanodegree》課程的學習,該課程的終極專案就是使用Pytorch為102種不同型別的花建立一個影象分類器。 在完成這個專案的過程中,我和其他學員一樣,都碰到了各種問題

用PyTorch建立一個影象分類?So easy!(Part 2)

在第一部分中,我們知道了為什麼以及如何載入預先訓練好的神經網路,我們可以用自己的分類器代替已有神經網路的分類器。那麼,在這篇文章中,我們將學習如何訓練分類器。 訓練分類器 首先,我們需要為分類器提供待分類的影象。本文使用ImageFolder載入影象,預訓練神經網路的輸入有特定的格

Tensorflow學習筆記--使用遷移學習做自己的影象分類(Inception v3)

本文主要使用inception v3的模型,再後面接一個softmax,做一個分類器。具體程式碼都是參照tf github。 整體步驟: 步驟一:資料準備,準備自己要分類的圖片訓練樣本。 步驟二:retrain.py 程式,用於下載inception v3模型及訓練後面的

大規模影象分類的演化-Large-Scale Evolution of Image Classifiers-讀後雜談

答辯完也畢業了,簽證正在辦理之中,基本也不去學校了,這連續好幾天都是早上起的晚隨便吃點,下午5點左右準時開始給老婆做飯,吃了飯主動洗涮,老婆需要散步就陪著一會。好了不說這些了,說一下我最近閱讀的這篇文章吧,deepmind團隊的文章,文章標題已經是Large-S

Tensorflow實現簡單的影象分類

一個簡單的Tensorflow圖片分類器,資料集是iris資料集。兩個指令碼premade_estimator.py分類器指令碼、iris_data.py處理資料的指令碼。 #iris_data.py 下載資料集,並且處理資料集 import pand

影象分類基本流程及 KNN 分類

1. 影象分類以及基本流程 1.1 什麼是影象分類   所謂影象分類問題,就是已有固定的分類標籤集合,然後對於輸入的影象,從分類標籤集合中找出一個分類標籤,最後把分類標籤分配給該輸入影象。雖然看起來挺簡單的,但這可是計算機視覺領域的核心問題之一,計算機視覺領域中很多看似不同的問題(比如物體檢

輔助分類的條件影象合成AC-GAN(Conditional Image Synthesis with Auxiliary Classifier GANs)

原文連結:Conditional Image Synthesis with Auxiliary Classifier GANs 文章貢獻: 1.在D的輸出部分新增一個輔助的分類器來提高條件GAN的效能 2.提出 Inception Accuracy 這種新的用於評判影象合成模型的標準

影象的線性分類(感知機、SVM、Softmax)

  本文主要內容為 CS231n 課程的學習筆記,主要參考 學習視訊 和對應的 課程筆記翻譯 ,感謝各位前輩對於深度學習的辛苦付出。在這裡我主要記錄下自己覺得重要的內容以及一些相關的想法,希望能與大家多多交流~ 1. 線性分類器簡介   這部分所

基於影象識別的分類的實現

最近做了一些影象處理的工作,故想著有時間時候整理一下,隨著人工智慧的發展,智慧化的影象識別也越來越受到重視。以肝病的影象分類器為例,通過對每一位肝病患者的CT影象的特徵部位提取,解算其相關的紋理特徵,再利用機器學習的相關演算法在紋理特徵的基礎上生成分類器,從而對

我對貝葉斯分類的理解

log enter roman 高斯 clas http style 理解 times 我們能夠得到其統計概率密度例如以下: 這樣我們就知道該概率密度曲線大致符合正態分布。例如以下圖所看到的 大概能夠看出它在中心非常集中,邊

(筆記)斯坦福機器學習第七講--最優間隔分類

滿足 優化 最終 clas 定義 mar 擴展 strong play 本講內容 1.Optional margin classifier(最優間隔分類器) 2.primal/dual optimization(原始優化問題和對偶優化問題)KKT conditions(KK

『cs231n』限制性分類損失函數和最優化

def vector print sha python width 技術分享 port 計算 代碼部分 SVM損失函數 & SoftMax損失函數: 註意一下softmax損失的用法: SVM損失函數: import numpy as np def L_i

【轉】SVM入門(六)線性分類的求解——問題的轉化,直觀角度

content cli 樣本 image ges 五個 是你 角度 spa SVM入門(六)線性分類器的求解——問題的轉化,直觀角度 讓我再一次比較完整的重復一下我們要解決的問題:我們有屬於兩個類別的樣本點(並不限定這些點在二維空間中)若幹,如圖, 圓形的樣本點定為正樣

機器學習:貝葉斯分類

貝葉斯 逆向 檢測 .net 極大似然估計 href ref .com blank 參考文獻 從貝葉斯定理說開去 關鍵詞:逆向概率;先驗概率;後驗概率 我所理解的貝葉斯定理--知乎專欄 關鍵詞:醫院病癥檢測中的真假陽性 似然與極大似然估計--知乎專欄 關鍵詞:似然與概率的區

Regularized least-squares classification(正則化最小二乘法分類)取代SVM

得出 ack 提高 kernel sys 風險 重要 ref height 在機器學習或者是模式識別其中有一種重要的分類器叫做:SVM 。這個被廣泛的應用於各個領域。可是其計算的復雜度以及訓練的速度是制約其在實時的計算機應用的主要原因。因此也非常非常多的算法

Naive Bayesian文本分類

main blog namespace 最大的 void ace i++ 不同類 clas 貝葉斯學習方法中有用性非常高的一種為樸素貝葉斯學習期,常被稱為樸素貝葉斯分類器。在某些領域中與神經網絡和決策樹學習相當。盡管樸素貝葉斯分類器忽略單詞間的依賴關系。即如果全部單

使用tensorflow的retrain.py訓練圖片分類

image nsa ges pytho .py code tensor 模型 eat 參考 https://hackernoon.com/creating-insanely-fast-image-classifiers-with-mobilenet-in-tensorflo

機器學習系列——樸素貝葉斯分類(二)

表示 -h line log ima 條件 code 樸素貝葉斯 spa 貝葉斯定理: 其中: 表示事件B已經發生的前提下,事件A發生的概率,叫做事件B發生下事件A的條件概率。其基本求解公式為:。 機器學習系列——樸素貝葉斯分類器(二)

opencv之haar特征+AdaBoos分類算法流程(三)

alt jsb pop fcm avi tex ext con trac opencv之haar特征+AdaBoos分類器算法流程(三)