1. 程式人生 > >ubuntu環境ceph配置入門(二)

ubuntu環境ceph配置入門(二)

tex metadata term text ceph isp white consola sso

在高速配置好ceph存儲集群環境的基礎上,能夠做相關的對象操作:

1. 設置osd pool min_size 首先通過rados命令查看pool例如以下: #rados lspools data metadata rbd
默認的osd的min_size數量配置為2,這裏以一個osd為例須要將其設置為1 ceph osd pool get {pool-name} {key} ceph osd pool set {pool-name} {key} {value} #ceph osd pool set data min_size 1 技術分享

技術分享
2. 測試上傳一個對象
準備一個test.txt文件然後利用rados上傳 rados put {object-name} {file-path} --pool=data
#rados put test.txt test.txt --pool=data
查看上傳的結果 #rados -p data ls (這裏會列舉pool中的對象名稱) 查看對象的位置 ceph osd map {pool-name} {object-name}
ceph osd map data test.txt 技術分享

依據映射關系,我們能夠到osd查看內容的存儲結構 #cd /srv/ceph/osd0 技術分享
技術分享 在這裏能夠看到相關的配置文件。當中current存儲數據對象內容的地方,進入裏面能夠看到一堆head文件和omap(元數據利用leveldb存儲)。

依據映射關系。文件test.txt存儲的對象應該位於以0.8開頭0.8_head的文件夾中,能夠看到有文件test.txt__head_8B0B6108__0即是我們剛存儲的對象。
利用rados命令還能夠做benchmark、恢復對象、刪除對象等操作。這裏就不再一一列舉了。
3. 擴展集群加入新的osd到集群中 為當前節點添加一個Ceph OSD進程。 #sudo mkdir -p /srv/ceph/osd1
回到集群的工作文件夾下 #cd /root/ceph-cluster #ceph-deploy osd prepare apusapp:/srv/ceph/osd1 #ceph-deploy osd activate apusapp:/srv/ceph/osd1

利用命令 #ceph -w 能夠看到集群內部在做數據遷移 技術分享
進入osd1的current文件夾下能夠看到剛剛上傳對象0.8開頭有0.8_TEMP和0.8_head,osd0中的對象內容也復制了過來。

ubuntu環境ceph配置入門(二)