python實現LBP方法提取影象紋理特徵實現分類
阿新 • • 發佈:2019-02-16
題目描述
這篇博文是數字影象處理的大作業.
題目描述:給定40張不同風格的紋理圖片,大小為512*512,要求將每張圖片分為大小相同的9塊,利用其中的5塊作為訓練集,剩餘的4塊作為測試集,構建適當的模型實現圖片的分類.
圖片如下圖所示:
分析:由於資料集太小,所以神經網路模型並不適合此類的影象處理.就需要尋找方法提取影象的紋理資訊.本文采用LBP的方法提取影象的紋理資訊,然後轉化成直方圖作為影象的特徵,然後使用多分類的方法進行分類.
環境
實現
讀取資料
Numpy包陣列操作API格式化資料
def loadPicture():
train_index = 0;
test_index = 0 ;
train_data = np.zeros( (200,171,171) );
test_data = np.zeros( (160,171,171) );
train_label = np.zeros( (200) );
test_label = np.zeros( (160) );
for i in np.arange(40):
image = mpimg.imread('picture/'+str(i)+'.tiff');
data = np.zeros( (513,513) );
data[0:image.shape[0 ],0:image.shape[1]] = image;
#切割後的影象位於資料的位置
index = 0;
#將圖片分割成九塊
for row in np.arange(3):
for col in np.arange(3):
if index<5:
train_data[train_index,:,:] = data[171*row:171*(row+1),171*col:171*(col+1)];
train_label[train_index] = i;
train_index+=1 ;
else:
test_data[test_index,:,:] = data[171*row:171*(row+1),171*col:171*(col+1)];
test_label[test_index] = i;
test_index+=1;
index+=1;
return train_data,test_data,train_label,test_label;
特徵提取
LBP特徵提取方法
radius = 1;
n_point = radius * 8;
def texture_detect():
train_hist = np.zeros( (200,256) );
test_hist = np.zeros( (160,256) );
for i in np.arange(200):
#使用LBP方法提取影象的紋理特徵.
lbp=skft.local_binary_pattern(train_data[i],n_point,radius,'default');
#統計影象的直方圖
max_bins = int(lbp.max() + 1);
#hist size:256
train_hist[i], _ = np.histogram(lbp, normed=True, bins=max_bins, range=(0, max_bins));
for i in np.arange(160):
lbp = skft.local_binary_pattern(test_data[i],n_point,radius,'default');
#統計影象的直方圖
max_bins = int(lbp.max() + 1);
#hist size:256
test_hist[i], _ = np.histogram(lbp, normed=True, bins=max_bins, range=(0, max_bins));
return train_hist,test_hist;
訓練分類器
SVM支援向量機分類.
import matplotlib.image as mpimg
import matplotlib.pyplot as plt
import numpy as np
from sklearn.multiclass import OneVsRestClassifier
from sklearn.svm import SVR
from skimage import feature as skft
train_data,test_data,train_label,test_label= loadPicture();
train_hist,test_hist = texture_detect();
svr_rbf = SVR(kernel='rbf', C=1e3, gamma=0.1);
OneVsRestClassifier(svr_rbf,-1).fit(train_hist, train_label).score(test_hist,test_label)
實驗測試集結果的正確率為:90.6%
第一次使用python的numpy包,對其中的api是真的不熟悉,程式碼還可以優化.其中和matlab裡的矩陣操作也有不少不同,但是關於機器學習的scikitlearn包確實很好用.
總結:結果的正確率不是很高,所以還是可以在分類器上優化,或者尋找更好的特徵提取的方式.
—————–2017.4.6