1. 程式人生 > >Glusterfs 分散式儲存系統配置

Glusterfs 分散式儲存系統配置

在伺服器叢集中,為了同步更新APP內容,利用Glusterfs分散式儲存功達到相同的APP只更新一次,其他機器同步更新

試驗環境:Vmware Fusion3.1.1 CentOS 5.5

1.安裝
#yum -y install glusterfs-cluster glusterfs-server

2.設定兩臺機器的別名分別為svr1,svr2

3.兩臺機器的服務端配置檔案和客戶端檔案如下:
服務端配置檔案glusterfsd.vol
# cat /etc/glusterfs/glusterfsd.vol
### file: server-volume.vol.sample

#####################################
### GlusterFS Server Volume File ##
#####################################

#### CONFIG FILE RULES:
### "#" is comment character.
### - Config file is case sensitive
### - Options within a volume block can be in any order.
### - Spaces or tabs are used as delimitter within a line.
### - Multiple values to options will be : delimitted.
### - Each option should end within a line.
### - Missing or commented fields will assume default values.
### - Blank/commented lines are allowed.
### - Sub-volumes should already be defined above before referring.

### Export volume "brick" with the contents of "/home/export" directory.
volume posix
type storage/posix # POSIX FS translator
option directory /opt/export # Export this directory
end-volume

volume locks
type features/locks
# option mandatory-locks on
subvolumes posix
end-volume

volume brick
type performance/io-threads
option thread-count 8
subvolumes locks
end-volume


### Add network serving capability to above brick.
volume server
type protocol/server
option transport-type tcp
# option transport-type unix
# option transport-type ib-sdp
# option transport.socket.bind-address 192.168.1.10 # Default is to listen on all interfaces
# option transport.socket.listen-port 6996 # Default is 6996

# option transport-type ib-verbs
# option transport.ib-verbs.bind-address 192.168.1.10 # Default is to listen on all interfaces
# option transport.ib-verbs.listen-port 6996 # Default is 6996
# option transport.ib-verbs.work-request-send-size 131072
# option transport.ib-verbs.work-request-send-count 64
# option transport.ib-verbs.work-request-recv-size 131072
# option transport.ib-verbs.work-request-recv-count 64

# option client-volume-filename /etc/glusterfs/glusterfs-client.vol
subvolumes brick
# NOTE: Access to any volume through protocol/server is denied by
# default. You need to explicitly grant access through # "auth"
# option.
option auth.addr.brick.allow 127.0.0.1,192.168.* # Allow access to "brick" volume
end-volume

客戶端配置檔案glusterfs.vol
# cat /etc/glusterfs/glusterfs.vol
### file: client-volume.vol.sample

#####################################
### GlusterFS Client Volume File ##
#####################################

#### CONFIG FILE RULES:
### "#" is comment character.
### - Config file is case sensitive
### - Options within a volume block can be in any order.
### - Spaces or tabs are used as delimitter within a line.
### - Each option should end within a line.
### - Missing or commented fields will assume default values.
### - Blank/commented lines are allowed.
### - Sub-volumes should already be defined above before referring.

### Add client feature and attach to remote subvolume
volume svr1
type protocol/client
option transport-type tcp
option remote-host svr1
option remote-subvolume brick #name of the remote volume
end-volume

volume svr2
type protocol/client
option transport-type tcp
option remote-host svr2
option remote-subvolume brick
end-volume

volume replicate1
type cluster/replicate
subvolumes svr1
end-volume

volume replicate2
type cluster/replicate
subvolumes svr2
end-volume

volume distribute
type cluster/distribute
subvolumes replicate1 replicate2
# subvolumes replicate1
end-volume

volume writebehind
type performance/write-behind
option cache-size 1MB
subvolumes distribute
end-volume

volume cache
type performance/io-cache
option cache-size 64MB
subvolumes writebehind
end-volume

4.接下來啟動服務端
# glusterfsd -f /etc/glusterfs/glusterfsd.vol
執行ps fax|grep gluseterfs檢視是否有啟動

使用以上命令操作svr2

5.啟動客戶端
啟動客戶端之前先掛起fuse
# modprobe fuse

啟動客戶端
# glusterfs -l /var/log/glusterfs/opt-glusterfs.log -f /etc/glusterfs/glusterfs.vol /opt/clusterfs

使用df -h 檢視掛載是否成功
# df -h
檔案系統 容量 已用 可用 已用% 掛載點
/dev/hda2 5.7G 4.6G 858M 85% /
/dev/hda3 2.9G 69M 2.7G 3% /home
/dev/hda1 99M 12M 82M 13% /boot
tmpfs 502M 0 502M 0% /dev/shm
glusterfs#/etc/glusterfs/glusterfs.vol
12G 9.0G 1.9G 84% /opt/clusterfs

如果沒有如上顯示,則說明掛載沒有成功,可以檢視/var/log/glusterfs/opt-glusterfs.log下建立的日誌進行排錯

最後使用以上命令進行svr2的操作
注:假如重啟到glusterfs掛連線不上,可以使用命令取消掛起
# df -h
Filesystem Size Used Avail Use% Mounted on
/dev/mapper/vg_webserver2-lv_root
50G 2.0G 45G 5% /
tmpfs 1.5G 0 1.5G 0% /dev/shm
/dev/sda1 485M 37M 423M 8% /boot
/dev/mapper/vg_webserver2-lv_home
46G 180M 44G 1% /home
df: `/opt/clusterfs': Transport endpoint is not connected
#umount /opt/clusterfs
[email protected]
~]#umount /opt/clusterfs
================================
最後的效果是,不管在哪臺機器上的/opt/glusterfs下新建更新檔案,都會同步更新到另一臺機器上,當你相同的APP在N臺機器上時,這是多麼輕鬆的事啊

相關推薦

Glusterfs 分散式儲存系統配置

在伺服器叢集中,為了同步更新APP內容,利用Glusterfs分散式儲存功達到相同的APP只更新一次,其他機器同步更新試驗環境:Vmware Fusion3.1.1 CentOS 5.51.安裝#yum -y install glusterfs-cluster gluster

GlusterFS分散式儲存系統

一,分散式檔案系統理論基礎 1.1 分散式檔案系統出現 計算機通過檔案系統管理,儲存資料,而現在資料資訊爆炸的時代中人們可以獲取的資料成指數倍的增長,單純通過增加硬碟個數來擴充套件計算機檔案系統的儲存容量的方式,已經不能滿足目前的需求。 分散式檔案系統可以有效解決資料的儲存和管理難題,將固定於某

分散式儲存系統GlusterFS最新版本安裝

GlusterFS已經被Red Hat收購了,成為其企業級解決方案的一部分。GlusterFS最近釋出了多個新版本,尤其是建立了新的GlusterD 2架構,開始原廠支援Kubernetes,不過目前還沒有達到Heketi的可用性。GlusterFS也升級到了版本5。因為Ubuntu 18.04內建

分散式儲存系統GlusterFS初體驗

轉自 https://my.oschina.net/kisops/blog/151073   過去一直以為GlusterFS和GFS為同一個東西,真是慚愧。昨天一同事用到才發現它是個好東西!     安裝很簡單,在所有儲存伺服器上執行: yum -y install g

FastDFS分散式檔案系統配置與部署

一文搞定FastDFS分散式檔案系統配置與部署 閱讀目錄 1 分散式檔案系統介紹 2 系統架構介紹 3 FastDFS效能方案 4 Linux基本命令操作 5 安裝VirtualBox虛擬機器並配置Ubuntu

分散式儲存系統的最佳實踐:系統發展路徑

分散式儲存系統從整體架構的角度看大同小異,實現起來卻困難重重。自主研發的 分散式儲存系統往往需要兩到三年才能逐步成熟起來,其中的難點在於如何把系統做穩定。系統開發過程中涉及架構設計、關鍵演算法實現、質量控制、團隊成員成長、線上運維、應用合作等,任何一個環節出現問題都可能導致整個專案失敗。本文章介紹通用分散式儲

儲存系統科普——分散式儲存系統解決方案介紹

簡介 該篇blog只是儲存系列科普文章中的第四篇,所有文章請參考: 部落格所有文章 在工程架構領域裡,儲存是一個非常重要的方向,這個方向從底至上,我分成了如下幾個層次來介紹: 硬體層:講解磁碟,SSD,SAS, NAS, RAID等硬體層的基本原理,以及其為作業系統提供的儲存介

HDFS分散式儲存系統筆記整理

HDFS分散式儲存系統筆記整理 HDFS(Hadoop Distributed File System)是Hadoop專案的核心子專案,是分散式計算中資料儲存管理的基礎,是基於流資料模式訪問和處理超大檔案的需求而開發的,可以運行於廉價的商用伺服器上。它所具有的高容錯、高可靠性、高可擴充套

常見的開源分散式儲存系統

系統整體對比 開源協議說明 GPL:不允許修改後和衍生的程式碼做為閉源的商業軟體釋出和銷售,修改後該軟體產品必須也採用GPL協議; GPLV2:修改文字的整體就必須按照GPL流通,不僅該修改文字的原始碼必須向社 會公開,而且對於這種修改文字的流通不准許附加修改者自己作出的限制; G

分散式儲存系統的遷移-使用ZFS/Gluster

我這用的Ubuntu 18.04系統(已經內建支援ZFS和Gluster檔案系統了),原來磁碟儲存使用的Ext4格式和LVM,現在需要遷移到ZFS/Gluster支援的分散式軟體定義儲存(SDS)和容器儲存體系(CSI),以充分利用分散式架構的儲存虛擬化、多機容錯、水平擴容、網路訪問的叢集環境下應用

分散式儲存系統Kudu與HBase的簡要分析與對比

本文來自網易雲社群 作者:閩濤 背景 Cloudera在2016年釋出了新型的分散式儲存系統——kudu,kudu目前也是apache下面的開源專案。Hadoop生態圈中的技術繁多,HDFS作為底層資料儲存的地位一直很牢固。而HBase作為Google BigTable的開源產品,一直也是Hadoop生態

分散式儲存系統可靠性系列一:如何估算

本文來自網易雲社群作者:孫建良1. 儲存系統的可靠性常規情況下,我們一般使用多幅本技術來提高儲存系統的可靠性,不論是結構化資料庫儲存(典型mysql)、文件型Nosql資料庫儲存(mongodb)或者是常規的blob儲存系統(GFS、Hadoop)等。資料幾乎是企業的生命所在

《大規模分散式儲存系統:原理解析與架構實戰》pdf附網盤下載連結送給還在迷茫的你

技術書閱讀方法論 一.速讀一遍(最好在1~2天內完成) 人的大腦記憶力有限,在一天內快速看完一本書會在大腦裡留下深刻印象,對於之後複習以及總結都會有特別好的作用。 對於每一章的知識,先閱讀標題,弄懂大概講的是什麼主題,再去快速看一遍,不懂也沒有關係,但是一定要在不懂的

常見開源分散式儲存系統

對比說明 /檔案系統 TFS FastDFS MogileFS MooseFS GlusterFS Ceph

kudu分散式儲存系統從入門到精通

課程目標 通過對本課程的學習能夠讓您對kudu從入門到精通,對已經從事相關大資料工作的學員能夠更深層次的學習新知識 適用人群 零基礎學員,大資料愛好者 課程簡介 系統環境: CentOS7.4+JDK

什麼是分散式儲存系統

分散式儲存系統 定義 分散式儲存系統是大量普通PC伺服器通過Internet互聯,對外作為一個整體提供儲存服務 特性 可擴充套件 低成本 高效能 易用 挑戰 分散式儲存系統的挑戰主要在於資料、狀態資訊的持久化,要求在自動遷移、自動容錯、

分散式儲存系統設計—— 資料分片

轉自:http://www.cnblogs.com/glacierh/p/5653512.html 在分散式儲存系統中,資料需要分散儲存在多臺裝置上,資料分片(Sharding)就是用來確定資料在多臺儲存裝置上分佈的技術。資料分片要達到三個目的: 分佈均勻,即每臺裝置上的資料量要儘可

Torus登場:CoreOS打造的新一代分散式儲存系統

最近CoreOS推出來重量級產品Torus,專門為容器叢集量身打造的分散式儲存系統,可以為通過Kubernetes編排和管理的容器叢集提供可靠可擴充套件的儲存。讓我們來感受下新產品給我們的叢集分散式儲存帶來了多大的優勢。 在容器叢集的基礎設施中,持久化儲存是目前計算機界討論最熱的問題之一。微服務生產

centos7下glusterFs 分散式檔案系統環境搭建

1、GlusterFS簡介: GlusterFS是一個開源的分散式檔案系統 相關術語如下: - Brick:GFS中的儲存單元,通過是一個受信儲存池中的伺服器的一個匯出目錄。可以通過主機名和目錄名來標識,如’SERVER:EXPORT’ - Clien

mfs分散式檔案系統配置

MFS是什麼 MFS全稱MooseFS,是檔案管理系統的抽象層,將使用者的資料通過master之後,儲存在多個網路儲存節點上面,這個過程對於使用者來說時透明的,並且MFS具有很強大的網路容錯能力;MFS的特性 1.是一個通用的檔案系統,不需要商城應用軟體提供介面,直接可以進