YOLOV3 將自己的txt轉為XML,再將XML轉為符合YOLO要求的txt格式
阿新 • • 發佈:2019-01-08
我自己的資料集格式為filename lable xmin ymin xmax ymax
1 通過別的模板轉換
VOC資料集的xml格式為:
<annotation>
<folder>VOC2007</folder>
<filename>000002.jpg</filename> //檔名
<size> //影象尺寸(長寬以及通道數
<width>335</width>
<height>500</height>
<depth >3</depth>
</size>
<object> //檢測到的物體
<name>cat</name> //物體類別
<pose>Unspecified</pose> //拍攝角度
<truncated>0</truncated> //是否被截斷(0表示完整
<difficult>0</difficult> //目標是否難以識別(0表示容易識別)
<bndbox> //bounding-box(包含左下角和右上角xy座標)
<xmin>139</xmin>
<ymin>200</ymin>
<xmax>207</xmax>
<ymax>301</ymax>
</bndbox>
</object>
</annotation>
所以我們把它當作模板然後修改成自己的資料集。注意object
可能不止一個。
轉換程式碼:
import copy from lxml.etree import Element, SubElement, tostring, ElementTree importcv2 # 修改為你自己的路徑 template_file = 'G:\\dataset\\WJ-data\\anno.xml' target_dir = 'G:\\dataset\\WJ-data\\Annotations\\' image_dir = 'G:\\dataset\\train\\' # 圖片資料夾 train_file = 'G:\\dataset\\train.txt' # 儲存了圖片資訊的txt檔案 with open(train_file) as f: trainfiles = f.readlines() # 標註資料 格式(filename label x_min y_min x_max y_max) file_names = [] tree = ElementTree() for line in trainfiles: trainFile = line.split() file_name = trainFile[0] print(file_name) # 如果沒有重複,則順利進行。這給的資料集一張圖片的多個框沒有寫在一起。 if file_name not in file_names: file_names.append(file_name) lable = trainFile[1] xmin = trainFile[2] ymin = trainFile[3] xmax = trainFile[4] ymax = trainFile[5] tree.parse(template_file) root = tree.getroot() root.find('filename').text = file_name # size sz = root.find('size') im = cv2.imread(image_dir + file_name)#讀取圖片資訊 sz.find('height').text = str(im.shape[0]) sz.find('width').text = str(im.shape[1]) sz.find('depth').text = str(im.shape[2]) # object 因為我的資料集都只有一個框 obj = root.find('object') obj.find('name').text = lable bb = obj.find('bndbox') bb.find('xmin').text = xmin bb.find('ymin').text = ymin bb.find('xmax').text = xmax bb.find('ymax').text = ymax # 如果重複,則需要新增object框 else: lable = trainFile[1] xmin = trainFile[2] ymin = trainFile[3] xmax = trainFile[4] ymax = trainFile[5] xml_file = file_name.replace('jpg', 'xml') tree.parse(target_dir + xml_file)#如果已經重複 root = tree.getroot() obj_ori = root.find('object') obj = copy.deepcopy(obj_ori) # 注意這裡深拷貝 obj.find('name').text = lable bb = obj.find('bndbox') bb.find('xmin').text = xmin bb.find('ymin').text = ymin bb.find('xmax').text = xmax bb.find('ymax').text = ymax root.append(obj) xml_file = file_name.replace('jpg', 'xml') tree.write(target_dir + xml_file, encoding='utf-8')
2.將xml轉為符合YOLO的txt
標註檔案.txt裡的資料格式是這樣的:
轉換程式碼如下:
# box裡儲存的是ROI感興趣區域的座標(x,y的最大值和最小值)
# 返回值為ROI中心點相對於圖片大小的比例座標,和ROI的w、h相對於圖片大小的比例
def convert(size, box):
dw = 1./(size[0])
dh = 1./(size[1])
x = (box[0] + box[1])/2.0
y = (box[2] + box[3])/2.0
w = box[1] - box[0]
h = box[3] - box[2]
x = x*dw
w = w*dw
y = y*dh
h = h*dh
return (x, y, w, h)
# 對於單個xml的處理
def convert_annotation(image_add):
# image_add進來的是帶地址的.jpg
#image_add = os.path.split(image_add,' ')[1] # 擷取檔名
image_name = image_add.split()[0]
print(image_name)
image_name = image_name.replace('.jpg', '') # 刪除字尾,現在只有檔名
in_file = open('G:\\dataset\\WJ-data\\Annotations\\' + image_name + '.xml') # 圖片對應的xml地址
out_file = open('G:\\dataset\\WJ-data\\labels\\%s.txt' % (image_name), 'w')
tree = ET.parse(in_file)
root = tree.getroot()
size = root.find('size')
w = int(size.find('width').text)
h = int(size.find('height').text)
# 在一個XML中每個Object的迭代
for obj in root.iter('object'):
# iter()方法可以遞迴遍歷元素/樹的所有子元素
difficult = obj.find('difficult').text
cls = obj.find('name').text
# 如果訓練標籤中的品種不在程式預定品種,或者difficult = 1,跳過此object
if cls not in classes or int(difficult) == 1:
continue
cls_id = classes.index(cls)#這裡取索引,避免類別名是中文,之後執行yolo時要在cfg將索引與具體類別配對
xmlbox = obj.find('bndbox')
b = (float(xmlbox.find('xmin').text), float(xmlbox.find('xmax').text), float(
xmlbox.find('ymin').text), float(xmlbox.find('ymax').text))
bb = convert((w, h), b)
out_file.write(str(cls_id) + " " + " ".join([str(a) for a in bb]) + '\n')
if not os.path.exists('G:\\dataset\\WJ-data\\labels\\'):#不存在資料夾
os.makedirs('G:\\dataset\\WJ-data\\labels\\')
image_adds = open("G:\\dataset\\train.txt")
for image_add in image_adds:
image_add = image_add.strip()
convert_annotation(image_add)
print("Finished")
3.構建訓練集與交叉驗證集:
"""
分割訓練集和驗證集
分別儲存了圖片的路徑
"""
from sklearn.model_selection import train_test_split
img_add = 'G:\\dataset\\train.txt'
data_set = [x.strip() for x in open(img_add).readlines()]
train_X, test_X = train_test_split(data_set, test_size=0.2, random_state=0)
print(train_X)
print(test_X)
train_file = open('G:\\dataset\\WJ-data\\train_file.txt', 'w')
for x in train_X:
x = x.split(' ')[0]
print(x)
train_file.write('G:\\dataset\\train'+x+'\n')
test_file = open('G:\\dataset\\WJ-data\\valid_file.txt', 'w')
for x in test_X:
x = x.split(' ')[0]
test_file.write('G:\\dataset\\train'+x+'\n')
4. 生成類別名檔案:
with open('G:\\dataset\\WJ-data\\obj.names', 'w') as f:
for i in range(61):
f.write(str(i)+'\n')
參考連結: