1. 程式人生 > >ceph儲存 ceph中PG的意義

ceph儲存 ceph中PG的意義

Overview

PG = “placement group”. When placing data in the cluster, objects aremapped into PGs, and those PGs are mapped onto OSDs. We use theindirection so that we can group objects, which reduces the amount ofper-object metadata we need to keep track of and processes we need torun (it would be prohibitively expensive to track eg the placementhistory on a per-object basis). Increasing the number of PGs canreduce the variance in per-OSD load across your cluster, but each PGrequires a bit more CPU and memory on the OSDs that are storing it. Wetry and ballpark it at 100 PGs/OSD, although it can vary widelywithout ill effects depending on your cluster. You hit a bug in how wecalculate the initial PG number from a cluster description.

There are a couple of different categories of PGs; the 6 that exist(in the original emailer’sceph-s output) are “local” PGs whichare tied to a specific OSD. However, those aren’t actually used in astandard Ceph configuration.

相關推薦

ceph儲存 cephPG意義

Overview PG = “placement group”. When placing data in the cluster, objects aremapped into PGs, and those PGs are mapped onto OSDs. We use theindirection s

ceph儲存 ceph原始碼除錯admin_socket介面

admin_socket:  每一個程序一個,即每一個asok檔案一個,在程序初始化時進行初始化,在程序關閉時關閉,osd程序admin_socket已經初始化,如果想獲取或者設定,直接通過 admin_socket->register_command進行命令註冊,OSD::asok_command進行

ceph儲存 ceph整體學習記錄(未整理較亂)

ceph原始碼下載:   http://ceph.com/download/   主要文件下載連線:   http://download.iyunv.com/detail/skdkjxy/8149989   /*******************/ Time:2014-

ceph儲存 ceph叢集效能檢視工具iostat

rrqm/s:每秒這個裝置相關的讀取請求有多少被Merge了(當系統呼叫需要讀取資料的時候,VFS將請求發到各個FS,如果FS發現不同的讀取請求讀取的是相同Block的資料,FS會將這個請求合併Merge);wrqm/s:每秒這個裝置相關的寫入請求有多少被Merge了。 rsec/s:每秒讀取的扇區數; w

ceph儲存 ceph叢集網路配置

簡介 建立一個高效能的Ceph儲存叢集網路配置是至關重要的。 Ceph的儲存叢集不執行CEPH客戶的路由請求或路由排程。相反, Ceph的Client直接提出請求CEPH OSD守護程序。 Ceph的OSD守護代表Ceph的客戶端執行資料備份,這意味著備份和其他因素施加額外

ceph儲存 ceph叢集效能測試fio

mytest1: (g=0): rw=randrw,bs=16K-16K/16K-16K, ioengine=psync, iodepth=1 … mytest1: (g=0): rw=randrw, bs=16K-16K/16K-16K, ioengine=psync, iodepth=1 fio 2.0.

ceph儲存 ceph叢集效能測試iozone

iozone工具常用引數 常用引數解釋: -a  auto mode產生檔案大小16K-512M,記錄大小4K-16M的輸出結果; -e  計算時間時算上fflush,fsync的時間; -f  指定臨時測試檔案; -s  指定測試檔案大小; -r  指定測試記錄大小;

ceph儲存 ceph叢集Paxos演算法分析

個人整理PAXOS演算法分析文件下載連線為: 一致性問題 如上圖所示,伺服器Ai(i=1,2,..5)組成儲存叢集,每份資料在5臺伺服器中各保留一個副本。當客戶端C1和C2同時修改儲存在叢集中的同一份資料時,由於網路延遲的存在無法保證兩個修改資料的請求到達每臺伺服器的先

ceph儲存 ceph叢集ntp校時詳細配置說明

那麼大家細心的話就會發現兩個問題: 第一我們連線的是0.uk.pool.ntp.org為什麼和remote server不一樣? 第二那個最前面的+和*都是什麼意思呢? 第一個問題不難理解,因為NTP提供給我們的是一個cluster server所以每次連線的得到的伺服器都有可能是不一樣.同樣這也告訴我們了在

ceph儲存 ceph檔案系統測試工具filebench介紹

Filebench 是一款檔案系統性能的自動化測試工具,它通過快速模擬真實應用伺服器的負載來測試檔案系統的效能。它不僅可以模擬檔案系統微操作(如 copyfiles, createfiles, randomread, randomwrite ),而且可以模擬複雜的應用程式

ceph儲存 ceph Bluestore的架構

uint64_t size = 1048476 * 128; string fn = get_temp_bdev(size); BlueFS fs; ASSERT_EQ(0, fs.add_block_device(0, fn)); fs.add_block_extent(0, 1048576

ceph儲存 ceph叢集osd故障自我檢測

心跳是用於OSD節點間檢測對方是否故障的,以便及時發現故障節點進入相應的故障處理流程。故障檢測需要在故障的發現時間和心跳帶來的負載之間做權衡,如果心跳頻率太高則過多的心跳報文會影響系統性能,如果心跳頻率過低則會延長髮現故障節點的時間,從而影響系統的可用性。 建立連線 在大規

ceph儲存 Ceph架構剖析

 1. 介紹 雲硬碟是IaaS雲平臺的重要組成部分,雲硬碟給虛擬機器提供了持久的塊儲存裝置。目前的AWS 的EBS(Elastic Block store)給Amazon的EC2例項提供了高可用高可靠的塊級儲存卷,EBS適合於一些需要訪問塊裝置的應用,比如資料庫、檔案系

分散式儲存CephPG狀態詳解

本文是滴滴雲開源框架教程系列文章的一篇。 上次分享了《Ceph介紹及原理架構分享》,這次來分享Ceph中的PG各種狀態詳解,PG是最複雜和難於理解的概念之一,PG的複雜如下: 在架構層次上,PG位於RADOS層的中間。 a. 往上負責接收和處理來自客戶端的請求

ceph儲存 PG的狀態機和peering過程

6).本端使用handle_pg_query 處理g_query_t::LOG,將其封裝成為MOSDPGLog訊息,該訊息傳送到目標auth osd後,有auth osd解封訊息,並且構造PG::MLogRec事件,傳送給auth_osd處理,在auth_osd上形成MQuery& query 交給p

自建yum源解決Ceph搭建過程從官網取包慢的問題

pre snappy 真的 spa x86 download crypt file git 最近項目組需要ceph環境,第一次搭建ceph,各種不順,裝了卸,卸了裝,一遍又一遍地按照官網的操作進行。最氣人的是網速差,從官網取包太慢。一輪嘗試就浪費一上午。 因此想到本地新建

ceph儲存的S3接口實現(支持斷點續傳)

底層 讀取數據 put 準備 version throws sdk obj tle 最近公司準備接ceph儲存,研究了一番,準備用亞馬遜的s3接口實現,實現類如下: /** * Title: S3Manager * Description: Ceph儲

分散式儲存-ceph原理

一、ceph核心元件:   Ceph提供了RADOS、OSD、MON、Librados、RBD、RGW和Ceph FS等功能元件,但其底層仍然使用RADOS儲存來支撐上層的那些元件;   核心元件:Ceph OSD,Ceph Monitor,

CentOS 7.2 安裝部署 Ceph 及添加 PG

狀況 告警 通過 健康狀況 pub sort network check 多文件 前期準備:準備三臺CentOS 7.2系統,每臺機器三塊硬盤,關閉selinux,關閉iptables,做好時間同步,做好本地域名解析,並對每臺機器做互信。192.168.10.101 ce

Proxmox VE搭配Ceph儲存組建高可用虛擬化平臺

隨著項專案的增多,對測試環境的需求越來越大,今天研發要幾臺測試環境,明天測試也要幾臺測試環境,連產品都要測試環境了,咱們運維也得有自己的測試環境,之前搭建的exsi已經滿足不了需求了。            手頭資源有限,所以這裡先用三臺機器組