1. 程式人生 > >Ceph學習----Ceph rbd 作為裝置掛載到本地

Ceph學習----Ceph rbd 作為裝置掛載到本地

CSDN 為我的同步更新部落格,部落格原地址:airheaven.cn

Ceph作為塊儲存,有時候需要將其掛載到本地作為檔案系統使用,如果我們有這樣的需求,那麼我們應該如何操作呢?

1.在ceph叢集中建立image,作為磁碟檔案

[email protected]:~# rbd create test-image --size 256 --pool test-pool
[email protected]:~# rbd ls test-pool
test-image
[email protected]:/test# rbd --image test-image info --pool test-pool
rbd image 'test-image':
    size 2048 MB in 512 objects
    order 22 (4096 kB objects)
    block_name_prefix: rb.0.1023.6b8b4567
    format: 1

刪除image指令(雖然這裡並不需要)

[email protected]:~# rbd rm test-image -p test-pool
Removing image: 100% complete...done.

2.Kernel Modules && Map rbd to device

有時候我們需要將image掛載到本地,同時修改image中的一些資訊,這就需要用到了map操作.
首先我們需要在核心中載入rbd模組

[email protected]:~# modprobe rbd
[email protected]:~# rbd create test-image --size 1024 --pool test-pool
[email protected]
:~# rbd map test-image --pool test-pool --id admin [email protected]:~# rbd showmapped id pool      image      snap device     0  test-pool test-image -    /dev/rbd0

格式化/dev/rbd0 然後將其掛載到 /test

[email protected]:/dev/rbd# mkfs.ext4 /dev/rbd0 
mke2fs 1.42.9 (4-Feb-2014)
Filesystem label=
OS type: Linux
Block size=4096 (log=2)
Fragment size=4096 (log=2)
Stride=1024 blocks, Stripe width=1024 blocks
65536 inodes, 262144 blocks
13107 blocks (5.00%) reserved for the super user
First data block=0
Maximum filesystem blocks=268435456
8 block groups
32768 blocks per group, 32768 fragments per group
8192 inodes per group
Superblock backups stored on blocks: 
	32768, 98304, 163840, 229376

Allocating group tables: done                            
Writing inode tables: done                            
Creating journal (8192 blocks): done
Writing superblocks and filesystem accounting information: done

[email protected]
:/dev/rbd# mkdir /test [email protected]:/dev/rbd# mount /dev/rbd0 /test [email protected]:/dev/rbd# df -h Filesystem Size Used Avail Use% Mounted on /dev/sda1 14G 3.9G 9.2G 30% / none 4.0K 0 4.0K 0% /sys/fs/cgroup udev 480M 4.0K 480M 1% /dev tmpfs 98M 1.5M 97M 2% /run none 5.0M 0 5.0M 0% /run/lock none 490M 152K 490M 1% /run/shm none 100M 44K 100M 1% /run/user /dev/rbd0 976M 1.3M 908M 1% /test

進入/test 建立檔案

[email protected]:/dev/rbd# cd /test
[email protected]:/test# echo "hello world" > hello.txt
[email protected]:/test# ls
hello.txt  lost+found

後續將針對該裝置進行效能測試。

相關推薦

Ceph學習----Ceph rbd 作為裝置掛載本地

CSDN 為我的同步更新部落格,部落格原地址:airheaven.cn Ceph作為塊儲存,有時候需要將其掛載到本地作為檔案系統使用,如果我們有這樣的需求,那麼我們應該如何操作呢? 1.在ceph叢集中建立image,作為磁碟檔案 [email protec

Kubernetes 使用 ceph-csi 消費 RBD 作為持久化儲存

> 原文連結:[https://fuckcloudnative.io/posts/kubernetes-storage-using-ceph-rbd/](https://fuckcloudnative.io/posts/kubernetes-storage-using-ceph-rbd/) 本文詳細介紹瞭如

Ceph學習----Ceph效能測試

CSDN 為我的同步更新部落格,部落格原地址:airheaven.cn 一、效能影響 先來分析下哪些因素可能影響儲存的效能,硬體部分就不說了,hdd和ssd出場的時候都會有官方的iops和throughput的指標,這裡也不是重點考慮因素,那麼影響儲存效能的在軟體層面

kubernets使用ceph-rbd作為storageclass並建立pvc和應用

1.Kubernetes StorageClass 介紹 Kubernetes 叢集儲存 PV 支援 Static 靜態配置以及 Dynamic 動態配置,動態卷配置 (Dynamic provisioning) 可以根據需要動態的建立儲存卷。靜態配置方式,叢

Ceph實踐總結之:Centos 下RBD裝置客戶端的配置

    如果客戶端需要重啟,需要將掛載目錄先解除安裝,重啟之後再重新執行rbd map,以及mount 的操作,否則系統在重啟的過程中會被卡在"Umounting file system"這個操作上。解除安裝命令如下:

kubernetes的ceph RBD volume(2): 使用Ceph RBD作為persistent volume

以下是使用ceph RBD作為persistent volume的例子: A PersistentVolume (PV) is a piece of networked storage in the cluster that has been provisioned by

ceph學習筆記之二RADOS

ceph sds Ceph學習筆記之二RADOS一、RADOS架構在RADOS架構中主要包含2個部分組件:1、MON(Monitor)由少量的Monitor節點構成的強耦合,小規模集群;負責管理Cluster Map。2、OSD(Object Storage Device)由數量可變的 大規模磁盤設備

ceph學習筆記之四PG

sds ceph cloud 對象 pg PG PG(Placement Group)單從名字上可理解為一個放置策略組,它是對象的集合,集合裏的所有對象具有相同的放置策略;對象的副本都分布在相同的OSD列表上。一個對象只能屬於一個PG,一個PG對應於放置在其上的OSD列表。一個OSD上可

ceph學習筆記之五 Pool與映射過程

ceph sds Pool Pool是一個抽象的存儲池,它規定了數據冗余的類型以及對應的副本分布策略。目前實現了兩種Pool類型:Replicated類型和Erasure Code類型。一個Pool由多個PG構成。對象映射過程 對象映射過程指的是查找對象在集群中分布的位置信息,其過程分為兩步:A、

ceph學習筆記之六 數據讀寫過程

ceph sds 數據寫過程1、Client向PG所在的主OSD發送寫請求。2、主OSD接收到寫請求,同時向兩個從OSD發送寫副本的請求,並同時寫入主OSD的本地存儲中。3、主OSD接收到兩個從OSD發送寫成功的ACK應答,同時確認自己寫成功,就向客戶端返回寫成功的ACK應答。4、在寫操作的過程中,主

ceph學習筆記之七 數據平衡

ceph sds 恢復 數據平衡 當在集群中新增一個OSD設備時,整個集群將會發生數據遷移使數據重新分布達到均衡。在Ceph集群中數據遷移的的基本單位是PG。其實在遷移過程中是將PG中的所有對象作為一個整體來進行遷移。數據遷移觸發流程: 1、當新加入一個OSD時,會改變系統的CRUSH Map

ceph學習筆記之八 CRUSH

sds ceph.crush CRUSH(Controlled Replication Under Scalable Hashing)它是一種基於偽隨機控制數據分布、復制的算法。數據分布式算法的要求:數據分布和負載均衡 首先要讓數據分布均勻,使數據能均勻的分布在各個節點和磁盤上。其次是負載均衡,使數據

ceph學習筆記之九 層級化的Cluster Map

sds ceph.crush 集群映射由Device和桶(Buckets)組成,設備和桶都有ID描述和權重。Bucket可以包含任意設備或者其他的bucket,使他們形成內部節點的存儲層次結構,設備總是在葉子節點。存儲設備的權重由管理員設置以控制設備負責存儲的相對數據量。盡管大型系統的設備含不同的容量

ceph學習筆記之十 副本放置策略

ceph sds 副本放置策略CRUSH 算法的設置目的是使數據能夠根據設備的存儲能力和寬帶資源加權平均地分布,並保持一個相對的概率平衡。副本放置在具有層次結構的存儲設備中,這對數據安全也有重要影響。通過反射系統的物理安裝組織,CRUSH算法可以將系統模塊化,從而定位潛在的設備故障。這些潛在故障的資源

Ceph學習之路(三)Ceph luminous版本部署

禁用 spl ted span none deploy ets work ble 1、配置ceph.repo並安裝批量管理工具ceph-deploy [root@ceph-node1 ~]# vim /etc/yum.repos.d/ceph.repo [

ceph儲存 ceph整體學習記錄(未整理較亂)

ceph原始碼下載:   http://ceph.com/download/   主要文件下載連線:   http://download.iyunv.com/detail/skdkjxy/8149989   /*******************/ Time:2014-

Ceph學習記錄7-糾刪碼

參考:Ceph原始碼分析 常濤 1. EC的基本原理 雲端儲存領域比較流行的資料冗餘儲存方法,原理和傳統的RAID類似,但是比RAID靈活。 它將寫入的資料分成N份原始資料,通過這N份原始資料計算出M份校驗資料。把N+M份資料分別儲存在不同的裝置或者節點中,並通過N+M

Ceph學習之一】Centos7上部署Ceph儲存叢集以及CephFS的安裝

             Ceph已然成為開源社群極為火爆的分散式儲存開源方案,最近需要調研Openstack與Ceph的融合方案,因此開始瞭解Ceph,當然從搭建Ceph叢集開始。         我搭建機器使用了6臺虛擬機器,包括一個admin節點,一個monitor節

ceph--磁碟和rbd、rados效能測試工具和方法

我在物理機上建立了5臺虛擬機器,搭建了一個ceph叢集,結構如圖: 具體的安裝步驟參考文件:http://docs.ceph.org.cn/start/                                 http://www.centoscn.c

Ceph學習

Ceph 每個Ceph叢集必定具備兩種角色的元件,一個是Monitor(監視器),另一個是OSD Monitor:主要負責叢集內的結點生命週期管理,資料分佈策略計算並維護叢集的成員和狀態等工作,Monitor通過實現Paxos演算法來提供強一致性的選舉