1. 程式人生 > >【雲星資料---mesos實戰系列002】:mesos全分散式部署實戰005--docker-register部署準備

【雲星資料---mesos實戰系列002】:mesos全分散式部署實戰005--docker-register部署準備

一、docker私有倉庫部署原因

我們要有一個統一的地方來完成對docker映象的管理。docker社群提供的docker-register是一個不錯的工具。現在我們先儘快的將
環境建設起來,如果考慮後續的企業級應用可以考慮使用habor進行替換。敬請關注後續關於habor的文章

二、搭建docker私有倉庫

    1.安裝並啟動docker
        yum -y install docker.io

    2.下載registry映象
        docker pull registry

    3.服務端使用http協議
        vim /etc/sysconfig/docker
        新增內容如下:
        other_args=
"--selinux-enabled --insecure-registry 10.100.134.2:5000" 4.docker常用命令 service docker restart service docker start 5.啟動registry映象 docker run -d -p 5000:5000 --restart=always -v /opt/registry:/tmp/registry registry 引數說明: -v /opt/registry:/tmp/registry :預設情況下,會將倉庫存放於容器內的/tmp/registry目錄下,指定本地目錄掛載到容器 此容器要用 docker stop 進行停止 6.
測試倉庫執行地址 瀏覽地址: http://10.100.134.2:5000/v2/_catalog 效果示例: {"repositories":[]}

三、測試私有倉庫

   1.本地使用http
        在mac中通過docker-tools來設定如下引數
        {
            "insecure-registries": [
                "10.100.134.2:5000"
            ]
        }
    2.本地下載
        docker pull busybox

    3.本地tag
        docker tag busybox 10.100
.134.2:5000/busybox 4.本地檢視image docker images 5.上傳到私有倉庫 docker push 10.100.134.2:5000/busybox 6.驗證上傳成功 瀏覽地址: http://10.100.134.2:5000/v2/_catalog 效果樣例: {"repositories":["busybox"]}

四、測試私有倉庫是否可用

測試私有倉庫是否可用
    docker pull hello-world
    docker tag hello-world 10.100.134.3:5000/hello-world
    docker push 10.100.134.3:5000/hello-world

五、可能出現的錯誤

    1.錯誤提示
        http: server gave HTTP response to HTTPS client
    2.錯誤原因
        docker repository預設使用https協議進行通訊,一般情況下我們用http協議可以滿足要求。
        所以只要在server和client任何一方導致的協議不一致都會出現類似的問題。
    3.解決方法
        server端使用http協議
        client端使用http協議

    4.解決方法如下:
            1.修改配置檔案
                vim /etc/docker/daemon.json
                填寫如下內容
                {
                    "registry-mirrors": ["http://hub-mirror.c.163.com","https://docker.mirrors.ustc.edu.cn","10.100.134.3:5000","10.100.134.2:5000"],
                    "insecure-registries":["10.100.134.3:5000","10.100.134.2:5000"]
                }
            2.分發配置檔案
                scp /etc/docker/daemon.json  bigdata03:/etc/docker/daemon.json
                scp /etc/docker/daemon.json  bigdata05:/etc/docker/daemon.json
            3.重啟docker服務
                systemctl restart docker
            4.測試是否成功
                測試命令:
                curl http://10.100.134.3:5000/v2/_catalog
                curl http://10.100.134.3:5000/v2/registry/tags/list
                返回結果:
                {"repositories":["hello-world"]}

相關推薦

資料---mesos實戰系列002mesos分散式部署實戰005--docker-register部署準備

一、docker私有倉庫部署原因 我們要有一個統一的地方來完成對docker映象的管理。docker社群提供的docker-register是一個不錯的工具。現在我們先儘快的將 環境建設起來,如果

資料---mesos實戰系列002mesos分散式部署實戰003--zookeeper分散式部署準備

一、zookeeper部署的原因 我們後續想通過zookeeper來實現mesos的master節點的HA(High Available) 因此必須安裝zookeeper。當然zookeeper在

資料---Apache Flink實戰系列(精品版)Apache Flink高階特性與高階應用002-Flink的記憶體管理002

二、flink的記憶體管理機制 0.flink的記憶體劃分 1.flink在JVM的heap內有自己的記憶體管理空間。 2.在flink中記憶體被分為三個部分,分別是Unmanaged區域,

資料---Apache Flink實戰系列(精品版)Apache Flink實戰基礎002--flink特性流處理特性介紹

第二部分:flink的特性 一、流處理特性 1.高吞吐,低延時 有圖有真相,有比較有差距。且看下圖: 1.flink的吞吐量大 2.flink的延時低 3.flink的配置少

資料---Apache Flink實戰系列(精品版)Apache Flink高階特性與高階應用008-Slot和Parallelism的深入分析003

四、任務槽(task-slot)和槽共享(Slot Sharing) 1.任務槽(Task slot) 1.flink的TM就是執行在不同節點上的JVM程序(process),這個程序會

資料---Apache Flink實戰系列(精品版)Apache Flink高階特性與高階應用001-Flink的記憶體管理001

一、基於JVM的大資料生態圈 1.bigdata on jvm 1.現在大多數開源大資料處理框架都是基於jvm的,像 Apache Hadoop,Apache Spark,Apache Hb

資料---Apache Flink實戰系列(精品版)Apache Flink實戰基礎0015--flink分散式部署0010

五、flink-on-yarn實現原理 1.通過配置資訊找到yarn a.Flink-Yarn-Client(FRC)讀取YARN_CONF_DIR,HADOOP_CONF_DIR或HAD

資料---Apache Flink實戰系列(精品版)Apache Flink高階特性與高階應用006-Slot和Parallelism的深入分析001

一、flink架構 1.flink是一個主從結構的分散式程式,它由client和cluster兩部分組成。 2.cluster由主節點JobManager(JM)和從節點TaskManager組

資料---mesos實戰系列003marathon實戰001--使用marathon部署一個最簡單的容器服務

一、marathon最簡單的hello world應用 要求: 部署一個列印語句,輸出將在stdout的日誌中檢視. 方案: cat test001.json { "id": "hell

資料---Apache Flink實戰系列(精品版)Apache Flink高階特性與高階應用004-Flink的作業排程情況001

一、作業(Job)和排程(Scheduling) 1.排程(Scheduling) 1.Flink叢集一般有一個或多個TaskManager,每個TaskManager有一個或多個slot來

資料---Scala實戰系列(精品版)Scala入門教程062-Scala實戰原始碼-訪問許可權

package scala.demo18_accessModifier /** * Created by liguohua on 2015/8/2. */ /** * 1.訪問許可權有private和protected兩種 * 1.1.pri

資料---Apache Flink實戰系列(精品版)Apache Flink高階特性與高階應用015-Flink中廣播變數和分散式快取001

1.flink中的廣播變數 flink支援將變數廣播到worker上,以供程式運算使用。 執行程式 package code.book.batch.sinksource.scala i

資料---Apache Flink實戰系列(精品版)Apache Flink實戰基礎0019--IDEA搭建maven管理的整合開發環境001

一、準備flink的開發環境 1. 建立scala的maven專案 2.輸入專案的基本資訊 3.驗證專案的基本資訊 4.輸入專案名稱 5.生成的目錄結構

資料---Apache Flink實戰系列(精品版)Apache Flink實戰基礎004--flink特性類庫和API示例

三、類庫和API 1.流處理程式 flink的 DataStream API在流處理的業務場景下,支援多種資料轉換,支援使用者自定義狀態的操作,支援靈活的視窗操作! 示例程式:

資料---Nik(精品版)通過ansible playbook實現自動化部署 KUBERNETES 叢集

環境要求 實驗環境通過MBP下的virtualbox和vagrant來提供3臺虛擬機器(centos 7)進行部署,其中1臺配置為k8s master其他2臺配置為k8s nodes。可以根據實際環境擴充套件k8s noded的數量。 假設虛擬機器I

D3.js資料視覺化系列教程(三十)--力導向圖之帶文字

(1)連結陣列var links = [ {source: "Microsoft", target: "Amazon", type: "licensing" ,weight:1,color:1}, {source: "Microsoft", target:

D3.js資料視覺化系列教程(十六)--更新、過度和動畫

//(1) 準備資料集 var dataset = [ 5, 10, 13, 19, 21, 25, 22, 18, 15, 13, 11, 12, 15, 20, 18, 17, 16, 18, 23, 25 ]; //(2) 設定SVG的高寬 var w=600; va

D3.js資料視覺化系列教程(二十二)--互動圖表之提示條

//鍵值對資料集 var dataset = [ {key:0,value:5}, {key:1,value:10}, {key:2,value:13}, {key:3,value:19}, {key:4,value:21}, {key:5,value:25}, {key:6,value:22}, {ke

D3.js資料視覺化系列教程(二十五)--載入csv檔案

csv檔案由csv資料生成的圓環!  1. 載入csv資料用到d3.csv函式,第一個引數是地址,第二個引數是個回撥函式d3.csv("http://localhost:8080/spring/D3da

D3.js資料視覺化系列教程(十八)--組合新增刪除

//鍵值對資料集 var dataset = [ {key:0,value:5}, {key:1,value:10}, {key:2,value:13}, {key:3,value:19}, {key:4,value:21}, {key:5,value:25}, {key:6,value:22}, {ke