【雲星資料---mesos實戰系列002】:mesos全分散式部署實戰005--docker-register部署準備
一、docker私有倉庫部署原因
我們要有一個統一的地方來完成對docker映象的管理。docker社群提供的docker-register是一個不錯的工具。現在我們先儘快的將
環境建設起來,如果考慮後續的企業級應用可以考慮使用habor進行替換。敬請關注後續關於habor的文章
二、搭建docker私有倉庫
1.安裝並啟動docker
yum -y install docker.io
2.下載registry映象
docker pull registry
3.服務端使用http協議
vim /etc/sysconfig/docker
新增內容如下:
other_args= "--selinux-enabled --insecure-registry 10.100.134.2:5000"
4.docker常用命令
service docker restart
service docker start
5.啟動registry映象
docker run -d -p 5000:5000 --restart=always -v /opt/registry:/tmp/registry registry
引數說明:
-v /opt/registry:/tmp/registry :預設情況下,會將倉庫存放於容器內的/tmp/registry目錄下,指定本地目錄掛載到容器
此容器要用 docker stop 進行停止
6. 測試倉庫執行地址
瀏覽地址: http://10.100.134.2:5000/v2/_catalog
效果示例: {"repositories":[]}
三、測試私有倉庫
1.本地使用http
在mac中通過docker-tools來設定如下引數
{
"insecure-registries": [
"10.100.134.2:5000"
]
}
2.本地下載
docker pull busybox
3.本地tag
docker tag busybox 10.100 .134.2:5000/busybox
4.本地檢視image
docker images
5.上傳到私有倉庫
docker push 10.100.134.2:5000/busybox
6.驗證上傳成功
瀏覽地址: http://10.100.134.2:5000/v2/_catalog
效果樣例: {"repositories":["busybox"]}
四、測試私有倉庫是否可用
測試私有倉庫是否可用
docker pull hello-world
docker tag hello-world 10.100.134.3:5000/hello-world
docker push 10.100.134.3:5000/hello-world
五、可能出現的錯誤
1.錯誤提示
http: server gave HTTP response to HTTPS client
2.錯誤原因
docker repository預設使用https協議進行通訊,一般情況下我們用http協議可以滿足要求。
所以只要在server和client任何一方導致的協議不一致都會出現類似的問題。
3.解決方法
server端使用http協議
client端使用http協議
4.解決方法如下:
1.修改配置檔案
vim /etc/docker/daemon.json
填寫如下內容
{
"registry-mirrors": ["http://hub-mirror.c.163.com","https://docker.mirrors.ustc.edu.cn","10.100.134.3:5000","10.100.134.2:5000"],
"insecure-registries":["10.100.134.3:5000","10.100.134.2:5000"]
}
2.分發配置檔案
scp /etc/docker/daemon.json bigdata03:/etc/docker/daemon.json
scp /etc/docker/daemon.json bigdata05:/etc/docker/daemon.json
3.重啟docker服務
systemctl restart docker
4.測試是否成功
測試命令:
curl http://10.100.134.3:5000/v2/_catalog
curl http://10.100.134.3:5000/v2/registry/tags/list
返回結果:
{"repositories":["hello-world"]}
相關推薦
【雲星資料---mesos實戰系列002】:mesos全分散式部署實戰005--docker-register部署準備
一、docker私有倉庫部署原因 我們要有一個統一的地方來完成對docker映象的管理。docker社群提供的docker-register是一個不錯的工具。現在我們先儘快的將 環境建設起來,如果
【雲星資料---mesos實戰系列002】:mesos全分散式部署實戰003--zookeeper全分散式部署準備
一、zookeeper部署的原因 我們後續想通過zookeeper來實現mesos的master節點的HA(High Available) 因此必須安裝zookeeper。當然zookeeper在
【雲星資料---Apache Flink實戰系列(精品版)】:Apache Flink高階特性與高階應用002-Flink的記憶體管理002
二、flink的記憶體管理機制 0.flink的記憶體劃分 1.flink在JVM的heap內有自己的記憶體管理空間。 2.在flink中記憶體被分為三個部分,分別是Unmanaged區域,
【雲星資料---Apache Flink實戰系列(精品版)】:Apache Flink實戰基礎002--flink特性:流處理特性介紹
第二部分:flink的特性 一、流處理特性 1.高吞吐,低延時 有圖有真相,有比較有差距。且看下圖: 1.flink的吞吐量大 2.flink的延時低 3.flink的配置少
【雲星資料---Apache Flink實戰系列(精品版)】:Apache Flink高階特性與高階應用008-Slot和Parallelism的深入分析003
四、任務槽(task-slot)和槽共享(Slot Sharing) 1.任務槽(Task slot) 1.flink的TM就是執行在不同節點上的JVM程序(process),這個程序會
【雲星資料---Apache Flink實戰系列(精品版)】:Apache Flink高階特性與高階應用001-Flink的記憶體管理001
一、基於JVM的大資料生態圈 1.bigdata on jvm 1.現在大多數開源大資料處理框架都是基於jvm的,像 Apache Hadoop,Apache Spark,Apache Hb
【雲星資料---Apache Flink實戰系列(精品版)】:Apache Flink實戰基礎0015--flink分散式部署0010
五、flink-on-yarn實現原理 1.通過配置資訊找到yarn a.Flink-Yarn-Client(FRC)讀取YARN_CONF_DIR,HADOOP_CONF_DIR或HAD
【雲星資料---Apache Flink實戰系列(精品版)】:Apache Flink高階特性與高階應用006-Slot和Parallelism的深入分析001
一、flink架構 1.flink是一個主從結構的分散式程式,它由client和cluster兩部分組成。 2.cluster由主節點JobManager(JM)和從節點TaskManager組
雲星資料---mesos實戰系列003】:marathon實戰001--使用marathon部署一個最簡單的容器服務
一、marathon最簡單的hello world應用 要求: 部署一個列印語句,輸出將在stdout的日誌中檢視. 方案: cat test001.json { "id": "hell
【雲星資料---Apache Flink實戰系列(精品版)】:Apache Flink高階特性與高階應用004-Flink的作業排程情況001
一、作業(Job)和排程(Scheduling) 1.排程(Scheduling) 1.Flink叢集一般有一個或多個TaskManager,每個TaskManager有一個或多個slot來
【雲星資料---Scala實戰系列(精品版)】:Scala入門教程062-Scala實戰原始碼-訪問許可權
package scala.demo18_accessModifier /** * Created by liguohua on 2015/8/2. */ /** * 1.訪問許可權有private和protected兩種 * 1.1.pri
【雲星資料---Apache Flink實戰系列(精品版)】:Apache Flink高階特性與高階應用015-Flink中廣播變數和分散式快取001
1.flink中的廣播變數 flink支援將變數廣播到worker上,以供程式運算使用。 執行程式 package code.book.batch.sinksource.scala i
【雲星資料---Apache Flink實戰系列(精品版)】:Apache Flink實戰基礎0019--IDEA搭建maven管理的整合開發環境001
一、準備flink的開發環境 1. 建立scala的maven專案 2.輸入專案的基本資訊 3.驗證專案的基本資訊 4.輸入專案名稱 5.生成的目錄結構
【雲星資料---Apache Flink實戰系列(精品版)】:Apache Flink實戰基礎004--flink特性:類庫和API示例
三、類庫和API 1.流處理程式 flink的 DataStream API在流處理的業務場景下,支援多種資料轉換,支援使用者自定義狀態的操作,支援靈活的視窗操作! 示例程式:
【雲星資料---Nik(精品版)】:通過ansible playbook實現自動化部署 KUBERNETES 叢集
環境要求 實驗環境通過MBP下的virtualbox和vagrant來提供3臺虛擬機器(centos 7)進行部署,其中1臺配置為k8s master其他2臺配置為k8s nodes。可以根據實際環境擴充套件k8s noded的數量。 假設虛擬機器I
【D3.js資料視覺化系列教程】(三十)--力導向圖之帶文字
(1)連結陣列var links = [ {source: "Microsoft", target: "Amazon", type: "licensing" ,weight:1,color:1}, {source: "Microsoft", target:
【D3.js資料視覺化系列教程】(十六)--更新、過度和動畫
//(1) 準備資料集 var dataset = [ 5, 10, 13, 19, 21, 25, 22, 18, 15, 13, 11, 12, 15, 20, 18, 17, 16, 18, 23, 25 ]; //(2) 設定SVG的高寬 var w=600; va
【D3.js資料視覺化系列教程】(二十二)--互動圖表之提示條
//鍵值對資料集 var dataset = [ {key:0,value:5}, {key:1,value:10}, {key:2,value:13}, {key:3,value:19}, {key:4,value:21}, {key:5,value:25}, {key:6,value:22}, {ke
【D3.js資料視覺化系列教程】(二十五)--載入csv檔案
csv檔案由csv資料生成的圓環! 1. 載入csv資料用到d3.csv函式,第一個引數是地址,第二個引數是個回撥函式d3.csv("http://localhost:8080/spring/D3da
【D3.js資料視覺化系列教程】(十八)--組合新增刪除
//鍵值對資料集 var dataset = [ {key:0,value:5}, {key:1,value:10}, {key:2,value:13}, {key:3,value:19}, {key:4,value:21}, {key:5,value:25}, {key:6,value:22}, {ke