1. 程式人生 > >CephFS的建立&&掛載&&解除安裝

CephFS的建立&&掛載&&解除安裝

引言:Ceph 檔案系統( Ceph FS )是個 POSIX 相容的檔案系統,它使用 Ceph 儲存叢集來儲存資料。 Ceph 檔案系統與 Ceph 塊裝置、同時提供 S3 和 Swift API 的 Ceph 物件儲存、或者原生庫( librados )一樣,都使用著相同的 Ceph 儲存集群系統。
在這裡插入圖片描述
前提條件:需要搭建好ceph叢集:具體步驟見Ceph叢集搭建

準備工作

  1. 在管理節點(admin-node)上,用ceph-deploy把Ceph安裝到Ceph客戶端節點(ceph-client)上(注:客戶端也可以安裝在管理節點上,因為此處我把已經安裝好Ceph的管理節點當做客戶端使用,故無需執行以下命令)

    ceph-deploy install {ceph-client-node}
    
  2. 檢視Ceph叢集執行健康狀態,是HEALTH_OK且PG進入active+clean狀態即可,並確保叢集中至少有一個元資料伺服器(mds)

    [[email protected] ceph]# ceph -s
      cluster:
        id:     13430f9a-ce0d-4d17-a215-272890f47f28
        health: HEALTH_OK
    
      services:
        mon: 3 daemons, quorum ceph2,ceph1,ceph3
        mgr: ceph1
    (active), standbys: ceph3, ceph2 osd: 3 osds: 3 up, 3 in rgw: 1 daemon active data: pools: 4 pools, 32 pgs objects: 219 objects, 1.1 KiB usage: 3.0 GiB used, 245 GiB / 248 GiB avail pgs: 32 active+clean

1.建立檔案系統

①使用兩個Pool來分別儲存資料和元資料

[[email protected] ceph]# ceph osd pool create cephfs_data 128
pool 'cephfs_data' created [[email protected] ceph]# ceph osd pool create cephfs_metadata 64 pool 'cephfs_metadata' created

檢視叢集狀態發現pool+2=6pgs+192=224

  data:
    pools:   6 pools, 224 pgs
    objects: 219  objects, 1.1 KiB
    usage:   3.0 GiB used, 245 GiB / 248 GiB avail
    pgs:     224 active+clean

②建立一個CephFS

[[email protected] ceph]# ceph fs new cephfs cephfs_metadata cephfs_data
new fs with metadata pool 7 and data pool 6

檢視叢集狀態發現cephfs建立成功,當前元資料伺服器狀態是up:active表示正常。

[[email protected] ceph]# ceph -s
  cluster:
    id:     13430f9a-ce0d-4d17-a215-272890f47f28
    health: HEALTH_OK
 
  services:
    mon: 3 daemons, quorum ceph2,ceph1,ceph3
    mgr: ceph1(active), standbys: ceph3, ceph2
    mds: cephfs-1/1/1 up  {0=ceph1=up:active}
    osd: 3 osds: 3 up, 3 in
    rgw: 1 daemon active
 
  data:
    pools:   6 pools, 224 pgs
    objects: 241  objects, 3.4 KiB
    usage:   3.0 GiB used, 245 GiB / 248 GiB avail
    pgs:     224 active+clean

使用下面的命令可以檢視建立的CephFS:

[[email protected] ceph]# ceph fs ls
name: cephfs, metadata pool: cephfs_metadata, data pools: [cephfs_data ]

2.掛載CephFS

客戶端訪問Ceph FS有兩種方式:

  1. 核心驅動
    ①檢視ceph.client.admin.keyring金鑰環並複製key

     [[email protected] ceph]# cat ceph.client.admin.keyring 
     [client.admin]
             key = AQBAI/JbROMoMRAAbgRshBRLLq953AVowLgJPw==
             caps mds = "allow *"
             caps mgr = "allow *"
             caps mon = "allow *"
             caps osd = "allow *"
    

    ②把CephFS掛載為核心驅動(secret引數的值就是剛才複製的key值)

     [[email protected] ceph]# mkdir /mnt/mycephfs
     [[email protected] ceph]# mount -t ceph 10.0.86.246:6789,10.0.86.221:6789,10.0.86.253:6789:/ /mnt/mycephfs/ -o name=admin,secret=AQBAI/JbROMoMRAAbgRshBRLLq953AVowLgJPw==
    

    ③檢視當前檔案系統情況發現掛載成功

     [[email protected] ceph]# df -h
     Filesystem                                            Size  Used Avail Use% Mounted on
     /dev/vda2                                              48G  6.7G   42G  14% /
     devtmpfs                                              1.9G     0  1.9G   0% /dev
     tmpfs                                                 2.0G  8.0K  2.0G   1% /dev/shm
     tmpfs                                                 2.0G   17M  2.0G   1% /run
     tmpfs                                                 2.0G     0  2.0G   0% /sys/fs/cgroup
     tmpfs                                                 2.0G   48K  2.0G   1% /var/lib/ceph/osd/ceph-0
     tmpfs                                                 396M     0  396M   0% /run/user/0
     10.0.86.246:6789,10.0.86.221:6789,10.0.86.253:6789:/   78G     0   78G   0% /mnt/mycephfs
    
  2. 使用者空間檔案系統(略)

3.解除安裝CephFS

[[email protected] ceph]# umount /mnt/mycephfs

檢視當前檔案系統情況發現解除安裝成功

[[email protected] ceph]# df -h
Filesystem      Size  Used Avail Use% Mounted on
/dev/vda2        48G  6.7G   42G  14% /
devtmpfs        1.9G     0  1.9G   0% /dev
tmpfs           2.0G  8.0K  2.0G   1% /dev/shm
tmpfs           2.0G   17M  2.0G   1% /run
tmpfs           2.0G     0  2.0G   0% /sys/fs/cgroup
tmpfs           2.0G   48K  2.0G   1% /var/lib/ceph/osd/ceph-0
tmpfs           396M     0  396M   0% /run/user/0

相關推薦

CephFS建立&&掛載&&解除安裝

引言:Ceph 檔案系統( Ceph FS )是個 POSIX 相容的檔案系統,它使用 Ceph 儲存叢集來儲存資料。 Ceph 檔案系統與 Ceph 塊裝置、同時提供 S3 和 Swift API

後臺掛載/解除安裝程式[Linux/Windows]

後臺掛載應用程式   即使關閉掉控制檯視窗,該程式的程序也將會一直執行下去   #Windows     1.編寫bat命令檔案[形如:a.bat]     2.cmd執行:start /b a.bat   #Linux     nohup programName &     

linux 磁碟掛載 解除安裝

掛載     建立分割槽與目錄的對映關係             mount /dev/sdb1 /sdb1/    &

.NET windows服務(二:建立解除安裝windows服務)

引用地址: https://docs.microsoft.com/zh-cn/dotnet/framework/windows-services/how-to-create-windows-services   手動安裝你的服務 在 Windows“啟動”選單或“啟動”螢幕上,依次選

linux掛載解除安裝光碟

檢視光碟的完整路徑名: [[email protected] media]# ls -l /dev | grep cdrom lrwxrwxrwx. 1 root root

Linux 磁碟分割槽,檔案系統建立掛載解除安裝

建立分割槽 (fdisk): 第一步先在Linux的虛擬機器上新增一塊硬碟,新增完成後需要重啟虛擬機器才能夠檢測識別到新硬碟。 重啟系統後可以使用 fdisk -l 命令檢視當前所有磁碟分割槽情況,sdb為我們剛剛建立的新磁碟,可以與上面的sda磁碟對比,發現新磁碟sdb還沒有分割槽。接下來就是為

磁碟管理(裝置的檢視、掛載解除安裝、磁碟分割槽、swap分割槽的建立與刪除、磁碟配額)

磁碟管理 概述: 分割槽:磁碟上的分割槽規劃 硬碟:是一種儲存裝置,可劃分分割槽(可見的) 硬碟與系統的關係: 系統管理硬碟 硬碟儲存系統資訊 1.本地儲存裝置的檢視 fdisk 是用於管理磁碟分割槽的實用程式 fdisk -l #檢視

linux磁碟分割槽,建立檔案系統,掛載解除安裝,自動掛載

1 EMMC磁碟分割槽 fdisk -l /dev/mmcblk0, 命令p檢視分割槽情況,n配置分割槽大小,w儲存配置,d刪除分割槽,p退出不儲存配置 2 瀏覽檔案系統情況dumpe2fs /dev/mmcblk0p1檢視是否有檔案系統 3 建立檔案

linux磁碟掛載解除安裝

環境: 阿里雲ECS ubuntu16.04 注: 1.購買的雲盤需和雲伺服器系統盤在同一個區域,如:華東2可用區B 2.將雲盤掛載到雲伺服器上 3.登入雲伺服器,進行磁碟分割槽和掛載操作。詳見後續步驟 硬碟分割槽及掛載操作步驟 1. 檢視未掛載的硬碟(名

vue-cli 安裝解除安裝安裝指定版本,和建立專案問題相關整理

vue-cli2.x.x 版本 安裝指定版本 所有版本安裝,前提是已經全域性安裝過node 和 全域性安裝過webpack npm install -g [email protected] vue-cli2.x.x 版本解除安裝 npm uninstall -

解決 嘗試更新已解除安裝(或無法掛載)的元件`Index`

Attempted to update component Index that has already been unmounted (or failed to mount). 嘗試更新已解除安裝(或

Centos系統下解除安裝安裝MySQL及使用者的建立、授權和使用(詳細。。。。)

由於經常使用linux系統,並且大資料環境搭建中經常會使用到mysql,不像windows系統下的安裝,今天有點空寫一篇,下面我給大家演示一遍。 主要有三部分內容: 1、MySQL的解除安裝 2、MySQL的安裝 3、MySQL使用者的授權和使用者建立、刪除 一、MySQL的解除安裝(如果是僅僅安裝

Ubuntu16.04與ARM的NFS配置、掛載解除安裝

ip分配: 閘道器    192.168.137.1               電腦     192.168.137.4               Ubuntu 192.168.137.2               開發板  192.168.137.3 一:

Linux LVM邏輯卷配置過程詳解(建立,增加,減少,刪除,解除安裝)

許多Linux使用者安裝作業系統時都會遇到這樣的困境:如何精確評估和分配各個硬碟分割槽的容量,如果當初評估不準確,一旦系統分割槽不夠用時可能不得不備份、刪除相關資料,甚至被迫重新規劃分割槽並重裝作業系統,以滿足應用系統的需要。 LVM是Linux環境中對磁碟分割槽進行管

ubuntu中掛載解除安裝iso檔案

直接貼命令: $sudo mount -o loop xxx123.iso /media/iso $sudo umount /media/iso 第一行命令將當前目錄下的xxx123.iso檔案掛載到 /media/iso下 第二條命令對應的解除安裝該掛載

OS之Linux系統命令 掛載解除安裝檔案系統

掛裝mount命令 所謂掛裝,就是將某個儲存介質(如光碟或U盤)指定到系統的某目錄。並且直接訪問此目錄,即可讀寫此儲存介質的資料。 掛裝光碟到/mnt/cdrom目錄 [root@host root]# mount /dev/cdrom /

Linux常用操作之sshfs掛載解除安裝

windows之外的世界比想像中要大得多呢,幾乎天天都在用ssh,卻到今天才知道有sshfs這個好東西,前幾天還在為ZendStudio可以遠端編輯檔案欣喜,慚愧啊,終於有比vi scp://hostname//path/to/file更方便的方式了。 sshfs,就是

linux檢視檔案大小,解除安裝掛載硬碟

[[email protected]_idc_Data_bk /]# df -h Filesystem Size Used Avail Use% Mounted on /dev/mapper/VolGroup00-LogVol00

Linux LVM邏輯卷配置過程詳解(建立、擴充套件、縮減、刪除、解除安裝、快照建立

一、預備知識 LVM全稱為Logical Volume Manager邏輯卷管理器,LVM是Linux環境中對磁碟分割槽進行管理的一種機制,是建立在硬碟和分割槽之上、檔案系統之下的一個邏輯層,可提高磁碟分割槽管理的靈活性。其中 PV:Physical Volume物理卷 VG:volume Group卷組

阿里雲 資料盤掛載解除安裝

如果您在建立例項時選擇了資料盤,在登入例項後,系統需要先格式化資料盤,然後掛載資料盤。 另外,您還可以根據業務需要,對資料盤進行多分割槽配置。建議使用系統自帶的工具進行分割槽操作。 注意:雲伺服器 ECS 僅支援對 資料盤 進行二次分割槽,而不支援對 系統盤 進行二次