1. 程式人生 > >分散式儲存 CentOS6.5虛擬機器環境搭建FastDFS-5.0.5叢集

分散式儲存 CentOS6.5虛擬機器環境搭建FastDFS-5.0.5叢集

前言:

      由於公司專案需要,最近開始學習一下分散式儲存相關知識,確定使用FastDFS這個開源工具。利用週末的時間在虛擬機器上搭建了分散式儲存系統,在搭建過程中,發現網上的資料說的並不是很全,有些細節需要單獨搜尋或者自己判斷,所以現在想寫這篇部落格儘量記錄一下自己在過程中遇到的問題,以及是如何解決的,方便自己也希望能幫忙到其他人。

===============================================================長長的分割線====================================================================

正文:

本次的目的是利用VMware搭建一個屬於自己的FastDFS叢集。本次我們選擇的是VMware10,具體的安裝步驟大家可以到網上搜索,資源很多。

      在閱讀本篇文章之前,你最好對FastDFS有一個初步的瞭解,我建議可以看看下面的連結文章中的介紹:

      第一步,確定目標:

      Tracker  192.168.224.20:22122  CentOS

      Group1-Storage11   192.168.224.25:23000  CentOS

      Group1-Storage12   192.168.224.26:23000  CentOS

      Group2-Storage21   192.168.224.28:23001  CentOS

      Group2-Storage22   192.168.224.29:23001  CentOS

      雖然上述叢集結構中tracker是單一節點,如果在生產環境中,這是不正確的,但現在我們主要是想通過這次的搭建熟悉基本的搭建流程,所以此處就暫時忽略吧。

      第二步,確定安裝版本:

    

      如上圖可以看出,截止到2015年5月17日,fastdfsz的最新版本是5.05,區別於以往版本,這個版本將公共的一些函式等單獨封裝成了libfastcommon

這個jar包,所以在安裝fastdfs之前,我們必須先安裝libfastcommon。

      同時,我們搭建完的分散式環境,還需要nginx幫忙實現http訪問以及負載均衡、快取等功能,涉及了nginx-1.7.8.tar.gz,fastdfs-nginx-module_v1.16.tar.gz,ngx_cache_purge-2.1.tar.gz

      第三步,安裝虛擬機器環境:

      第四步,資料夾初始化: 

      按照我們第一步確認的目標,我們可以現在自由選擇一個路徑,建立一些資料夾目錄,這些目錄後邊會在配置tracker和storage的過程中被用到。我在用虛擬機器建立的時候,是在/opt這個目錄下面建立相關的資料夾,詳細如下,僅供參考:

      1. 配置tracker所需的base_path: /opt/fastdfs_tracker。

      2. 配置storage所需的日誌目錄: /opt/fastdfs_storage_info。 備註: 這個目錄是用來儲存storage之間同步檔案等日誌的

      3. 配置storage所需的儲存檔案目錄: /opt/fastdfs_storage_data。備註: 這個目錄是用來儲存檔案的

      其實,我們在使用過程中並不是每個物理機上都會同時部署tracker和storage,那麼根據自己的實際情況,如果只部署storage,則就建立storage的那兩個資料夾;反之則只建立tracker的那個資料夾。後邊在解釋配置檔案如何配置的過程中我將會按照上邊的目錄路徑做配置,大家可以比對著看每個路徑對應哪個配置。

      第五步,安裝libfastcommon-1.0.7.zip:

 在安裝libfastcommon的過程中,涉及瞭解壓縮、make安裝等過程,第一次安裝的時候,可能由於環境的原因,會提示比如沒有安裝unzip、zip;沒有安裝perl;沒有安裝gcc等,逐一安裝即可。

      1. 利用unzip解壓縮,如果提示沒有安裝 ,則按照下圖中的命令安裝即可:

      

      2. 解壓完成後,進入資料夾,會看到make.sh檔案,執行./make.sh命令,可能會報沒有安裝gcc和perl的錯誤,截圖如下:

      

      3. 為了解決2中的問題,安裝gcc和perl:

          a. 執行 yum -y install gcc 和 yum -y install gcc-c++ 這了兩個命令安裝

          b. 安裝perl時,我們可以直接用wget命令安裝,我這裡安裝的版本是perl-5.20.2。

              wget http://www.cpan.org/src/5.0/perl-5.20.2.tar.gz

              tar zxvf perl-5.20.2.tar.gz               

              mkdir /usr/local/perl

              ./Configure -des -Dprefix=/usr/local/perl -Dusethreads -Uversiononly

              make

              make install

              perl -version

       4.  安裝完perl後,重新依次執行 ./make.sh 和 ./make.sh install 這兩個命令,完成libfastcommon的安裝。

             

       5.  注意,上述安裝的路徑在/usr/lib64/,但是FastDFS主程式設定的lib目錄是/usr/local/lib,所以需要建立軟連線如下:

             ln -s /usr/lib64/libfastcommon.so /usr/local/lib/libfastcommon.so
             ln -s /usr/lib64/libfastcommon.so /usr/lib/libfastcommon.so
             ln -s /usr/lib64/libfdfsclient.so /usr/local/lib/libfdfsclient.so
             ln -s /usr/lib64/libfdfsclient.so /usr/lib/libfdfsclient.so

      第六步,安裝fastdfs-5.05.tar.gz:

前邊幾步如果安裝的都正確的話,這一步就比較簡單了,解壓縮fastdfs-5.05.tar.gz,然後依次執行 ./make.sh 和 ./make.sh install 這兩個命令,過程中沒有報錯,並且開啟 /etc/fdfs 這個目錄發現有配置檔案存在,就說明安裝成功了。

             

      第七步,配置tracker:

前邊的這六步無論是配置tracker還是配置storage都是必須的,而tracker和storage的區別主要是在安裝完fastdfs之後的配置過程中。我們在第一步確認目標時,計劃在192.168.224.20這臺虛擬機器上配置tracker,所以我們就在這臺機器上演示。

      1. 進入/etc/fdfs資料夾,執行命令: cp  tracker.conf.sample  tracker.conf。

      2. 編輯tracker.conf,執行命令: vi  tracker.conf ,將以下幾個選項進行編輯:

          a. disabled=false            #啟用配置檔案

          b. port=22122                #設定tracker的埠號,一般採用22122這個預設埠

          c. base_path=/opt/fastdfs_tracker   #設定tracker的資料檔案和日誌目錄(預先建立)

          d. http.server_port=8080     #設定http埠號   注意,這個配置在fastdfs5.05這個版本中已經不用配置,不用管這個!

          

3. 啟動tracker,執行如下命令: /usr/local/bin/fdfs_trackerd  /etc/fdfs/tracker.conf  restart

          注意,一般fdfs_trackerd等命令在/usr/local/bin中沒有,而是在/usr/bin路徑下,所以命令修改如下: /usr/bin/fdfs_trackerd  /etc/fdfs/tracker.conf  restart

      4. 啟動完畢後,可以通過以下兩個方法檢視tracker是否啟動成功:

          a. netstat -unltp|grep fdfs,檢視22122埠監聽情況 

          b. 通過以下命令檢視tracker的啟動日誌,看是否有錯誤: tail -100f  /opt/fastdfs_tracker/logs/trackerd.log

      5. 如果啟動沒有問題,可以通過以下步驟,將tracker的啟動新增到伺服器的開機啟動中:

          a. 開啟檔案 vi /etc/rc.d/rc.local

          b. 將如下命令新增到該檔案中 /usr/bin/fdfs_trackerd  /etc/fdfs/tracker.conf  restart

      第八步,配置storage:

      其實配置storage和配置tracker類似,只不過配置檔案和配置內容不一樣。我們以配置192.168.224.29配置storage為例。

      1. 進入/etc/fdfs資料夾,執行命令: cp  storage.conf.sample  storage.conf。

      2. 編輯storage.conf,執行命令: vi  storage.conf ,將以下幾個選項進行編輯:

           a. disabled=false            #啟用配置檔案

           b. group_name=group2    #組名,根據實際情況修改

           c. port=23001     #設定storage的埠號,預設是23000,同一個組的storage埠號必須一致

           d. base_path=/opt/fastdfs_storage_info    #設定storage的日誌目錄(需預先建立)

           e. store_path_count=1   #儲存路徑個數,需要和store_path個數匹配

           f.  store_path0=/opt/fastdfs_storage_data   #儲存路徑

           g. tracker_server=192.168.224.20:22122   #tracker伺服器的IP地址和埠號

           h. http.server_port=8080     #設定http埠號   注意,這個配置在fastdfs5.05這個版本中已經不用配置,不用管這個!

                      

           

           

      3. 啟動storage,執行如下命令: /usr/local/bin/fdfs_storage  /etc/fdfs/storage.conf  restart

          注意,一般fdfs_storage等命令在/usr/local/bin中沒有,而是在/usr/bin路徑下,所以命令修改如下: /usr/bin/fdfs_storage  /etc/fdfs/storage.conf  restart

      4. 啟動完畢後,可以通過以下兩個方法檢視storage是否啟動成功:

          a. netstat -unltp|grep fdfs,檢視23001埠監聽情況 

          b. 通過以下命令檢視storage的啟動日誌,看是否有錯誤: tail -100f  /opt/fastdfs_storage_info/logs/storage.log

      5. 啟動成功後,可以通過fdfs_monitor檢視叢集的情況,即storage是否已經註冊到tracker伺服器中

          /usr/bin/fdfs_monitor /etc/fdfs/storage.conf

          檢視192.168.224.29:23001 是ACTIVE狀態即可

      6. 如果啟動沒有問題,可以通過以下步驟,將storage的啟動新增到伺服器的開機啟動中:

          a. 開啟檔案 vi /etc/rc.d/rc.local

          b. 將如下命令新增到該檔案中 /usr/bin/fdfs_storage  /etc/fdfs/storage.conf  restart

===============================================================長長的分割線====================================================================   

      以上八步其實已經完成了fastdfs的配置,如果此時你用java等api編輯客戶端,實際上就可以完成檔案的上傳、同步和下載。但是為什麼網上還會有很多人說需要nginx呢???其實主要原因時因為,我們可以通過配置nginx為下載提供基於http協議的下載等功能。

      其實,storage中安裝nginx,主要是為了為提供http的訪問服務,同時解決group中storage伺服器的同步延遲問題。而tracker中安裝nginx,主要是為了提供http訪問的反向代理、負載均衡以及快取服務 

      第九步,安裝nginx的準備:

不管是在tracker中還是storage中安裝nginx,前提都需要安裝一些基礎軟體。一些大公司的伺服器預設都會初始化這些軟體,但是你在配置的時候可能還是最好自己利用命令確認一下。

      1. yum install -y gcc  這個前邊在安裝libfastcommon之前已經安裝了

      2. yum install -y gcc-c++ 這個前邊在安裝libfastcommon之前已經安裝了

      3. yum install -y pcre pcre-devel

      4. yum install -y zlib zlib-devel

      5. yum install -y openssl openssl-devel

      第十步,在storage中安裝nginx:

      1. 建立nginx預設的安裝資料夾: mkdir /usr/local/nginx

      2. 提前將 nginx1.7.8.tar.gz 和 fastdfs-nginx-module_v1.16.tar.gz 解壓縮,然後進入nginx1.7.8的資料夾目錄,執行如下命令:

          ./configure  --prefix=/usr/local/nginx  --add-module=/myself_settings/fastdfs-nginx-module/fastdfs-nginx-module/src

      3. 執行完上述命令,如果沒有報錯的話,我們繼續執行 make 命令,此時編譯有可能會報錯,那是因為我們忘了做一項重要的工作,我們可以參考下面這篇文章http://bbs.chinaunix.net/thread-4163021-1-1.html中的解答,其實彙總就是下面兩個意思:

          a. 我們在解壓縮fastdfs-nginx-module_v1.16.tar.gz之後,需要進入fastdfs-nginx-module/src目錄,編輯config檔案,找到包含CORE_INCS這個一行,將路徑中local全部去掉,變為CORE_INCS="$CORE_INCS /usr/include/fastdfs /usr/include/fastcommon/"

          b. 建立軟連線,這個軟連線我們在第五步安裝libfastcommon時的最後一個操作就已經建立了,所以此處不用再建立了。

      4. 執行完3個步驟後,我們在重複執行2中的命令,然後再依次執行 make 和 make install 這兩個命令,沒有報錯誤就是安裝成功了。

      5. 執行命令 cd /usr/local/nginx/conf,編輯 nginx.conf 這個檔案,編輯如下:

          listen       8080;

          在server段中新增: 

          location ~/group[1-3]/M00{

                 root/fdfs/storage/data;

                 ngx_fastdfs_module;

          }

          注意,如果配置的storage是在group2組,則下面的location應該是 ~/group2/M00

          

      6. 執行命令 cd /myself_settings/fastdfs5.0.5/fastdfs-5.05/conf,即進入fastdfs5.0.5的安裝資料夾的conf目錄下,將目錄下面的http.conf和mime.types拷貝到/etc/fdfs/下,如果不執行這一步,後邊在啟動nginx時會報錯。

7. 執行命令 cd /myself_settings/fastdfs_nginx_module/fastdfs-nginx-module/src,即進入fastdfs-nginx-module_v1.16的安裝資料夾的src目錄下,將目錄下面的mod_fastdfs.conf這個檔案拷貝到 /etc/fdfs 目錄下。

      8. 開啟 /etc/fdfs 這個目錄,編輯 mod_fastdfs.conf 這個檔案,如下:

          注意以下配置是group2的第二個storage 192.168.224.29的配置,按照第一步確定的叢集目標來配置的,供大家參考。

          a. base_path=/opt/fastdfs_storage_info   #儲存日誌目錄

          b. tracker_server=192.168.224.20:22122   #tracker伺服器的IP地址以及埠號

          c. storage_server_port=23001   #storage伺服器的埠號

          d. group_name=group2  #當前伺服器的group名

          c. url_have_group_name= true        #檔案url中是否有group名

          d. store_path_count=1          #儲存路徑個數,需要和store_path個數匹配

          e. store_path0=/opt/fastdfs_storage_data         #儲存路徑

          f.  http.need_find_content_type=true     #從副檔名查詢檔案型別(nginx時為true)  注意:這個配置網上一般都會列出,但是在fastdfs5.05的版本中是沒有的

          h. group_count= 2       #設定組的個數

          i.  在檔案的末尾,按照第一步確定的叢集目標,追加如下圖的配置:

           

      9. 建立軟連線 ln  -s  /opt/fastdfs_storage_data/data  /opt/fastdfs_storage_data/data/M00

      10. 執行命令啟動nginx: /usr/local/nginx/sbin/nginx ,如果/usr/local/nginx/logs/error.log中沒有報錯,同時訪問192.168.224.29:8080這個url能看到nginx的歡迎頁面。

      第十一步,在tracker中安裝nginx:

      注意,tracker中nginx安裝時比storage中的nginx安裝時多安裝一個nginx的快取模組,同時在配置的時候有很大的不同。

      1. 建立nginx預設的安裝資料夾: mkdir /usr/local/nginx

      2. 提前將 nginx1.7.8.tar.gz、fastdfs-nginx-module_v1.16.tar.gz、ngx_cache_purge-2.1.tar.gz解壓縮,然後進入nginx1.7.8的資料夾目錄,執行如下命令:

          ./configure  --prefix=/usr/local/nginx  --add-module=/myself_settings/fastdfs-nginx-module/fastdfs-nginx-module/src  --add-module=/myself_settings/ngx_cache_purge/ngx_cache_purge-2.1

      3. 執行完上述命令,如果沒有報錯的話,我們繼續執行 make 命令,此時編譯有可能會報錯,那是因為我們忘了做一項重要的工作,我們可以參考下面這篇文章http://bbs.chinaunix.net/thread-4163021-1-1.html中的解答,其實彙總就是下面兩個意思:

          a. 我們在解壓縮fastdfs-nginx-module_v1.16.tar.gz之後,需要進入fastdfs-nginx-module/src目錄,編輯config檔案,找到包含CORE_INCS這個一行,將路徑中local全部去掉,變為CORE_INCS="$CORE_INCS /usr/include/fastdfs /usr/include/fastcommon/"

          b. 建立軟連線,這個軟連線我們在第五步安裝libfastcommon時的最後一個操作就已經建立了,所以此處不用再建立了。

      4. 執行完3個步驟後,我們在重複執行2中的命令,然後再依次執行 make 和 make install 這兩個命令,沒有報錯誤就是安裝成功了。

      5. 執行命令 cd /usr/local/nginx/conf,編輯 nginx.conf 這個檔案,編輯如下: 

#user  nobody;
worker_processes  1;

#error_log  logs/error.log;
#error_log  logs/error.log  notice;
#error_log  logs/error.log  info;

#pid        logs/nginx.pid;


events {
    worker_connections  1024;
}


http {
    include       mime.types;
    default_type  application/octet-stream;

    #log_format  main  '$remote_addr - $remote_user [$time_local] "$request" '
    #                  '$status $body_bytes_sent "$http_referer" '
    #                  '"$http_user_agent" "$http_x_forwarded_for"';

    #access_log  logs/access.log  main;

    sendfile        on;
    tcp_nopush     on;

    #keepalive_timeout  0;
    keepalive_timeout  65;

    #gzip  on;
    
    server_names_hash_bucket_size 128;
    client_header_buffer_size 32k;
    large_client_header_buffers 4 32k;

    client_max_body_size 300m;

    proxy_redirect off;
    proxy_set_header Host $http_host;
    proxy_set_header X-Real-IP $remote_addr;
    proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;

    proxy_connect_timeout 90;
    proxy_send_timeout 90;
    proxy_read_timeout 90;

    proxy_buffer_size 16k;
    proxy_buffers 4 64k;
    proxy_busy_buffers_size 128k;
    proxy_temp_file_write_size 128k;
   
    proxy_cache_path /opt/cache/nginx/proxy_cache levels=1:2 
    keys_zone=http-cache:500m max_size=10g inactive=30d;
    proxy_temp_path /opt/cache/nginx/proxy_cache/tmp;

    upstream fdfs_group1 {
         server 192.168.224.25:8080 weight=1 max_fails=2 fail_timeout=30s;
         server 192.168.224.26:8080 weight=1 max_fails=2 fail_timeout=30s;
    }
    
    upstream fdfs_group2 {
         server 192.168.224.28:8080 weight=1 max_fails=2 fail_timeout=30s;
         server 192.168.224.29:8080 weight=1 max_fails=2 fail_timeout=30s;
    }

    server {
        listen       8080;
        server_name  localhost;

        #charset koi8-r;

        #access_log  logs/host.access.log  main;

        location /group1/M00 {
            proxy_next_upstream http_502 http_504 error timeout invalid_header;
            proxy_cache http-cache;
            proxy_cache_valid  200 304 12h;
            proxy_cache_key $uri$is_args$args;
            proxy_pass http://fdfs_group1;
            expires 30d;
        }
        
        location /group2/M00 {
            proxy_next_upstream http_502 http_504 error timeout invalid_header;
            proxy_cache http-cache;
            proxy_cache_valid  200 304 12h;
            proxy_cache_key $uri$is_args$args;
            proxy_pass http://fdfs_group2;
            expires 30d;
        }
  
        location ~/purge(/.*) {
            allow 127.0.0.1;
            allow 192.168.224.0/24;
            deny all;
            proxy_cache_purge http-cache  $1$is_args$args;
        }     
 
        #error_page  404              /404.html;

        # redirect server error pages to the static page /50x.html
        #
        error_page   500 502 503 504  /50x.html;
        location = /50x.html {
            root   html;
        }

        # proxy the PHP scripts to Apache listening on 127.0.0.1:80
        #
        #location ~ \.php$ {
        #    proxy_pass   http://127.0.0.1;
        #}

        # pass the PHP scripts to FastCGI server listening on 127.0.0.1:9000
        #
        #location ~ \.php$ {
        #    root           html;
        #    fastcgi_pass   127.0.0.1:9000;
        #    fastcgi_index  index.php;
        #    fastcgi_param  SCRIPT_FILENAME  /scripts$fastcgi_script_name;
        #    include        fastcgi_params;
        #}

        # deny access to .htaccess files, if Apache's document root
        # concurs with nginx's one
        #
        #location ~ /\.ht {
        #    deny  all;
        #}
    }
# another virtual host using mix of IP-, name-, and port-based configuration # #server { # listen 8000; # listen somename:8080; # server_name somename alias another.alias; # location / { # root html; # index index.html index.htm; # } #} # HTTPS server # #server { # listen 443 ssl; # server_name localhost; # ssl_certificate cert.pem; # ssl_certificate_key cert.key; # ssl_session_cache shared:SSL:1m; # ssl_session_timeout 5m; # ssl_ciphers HIGH:!aNULL:!MD5; # ssl_prefer_server_ciphers on; # location / { # root html; # index index.html index.htm; # } #} }

      6. 執行命令啟動nginx: /usr/local/nginx/sbin/nginx ,如果/usr/local/nginx/logs/error.log中沒有報錯,同時訪問192.168.224.20:8080這個url能看到nginx的歡迎頁面。

      第十二步,測試上傳:

      1. 開啟 /etc/fdfs 資料夾,編輯 client.conf 檔案,編輯內容如下:

          a. base_path=/opt/fastdfs_tracker      #存放路徑

          b. tracker_server=192.168.224.20:22122          #tracker伺服器IP地址和埠號

          c. http.tracker_server_port=8080              #tracker伺服器的http埠號,注意,這個配置在fastdfs5.0.5中已經沒有用了

2. 模擬上傳檔案,執行如下命令: /usr/bin/fdfs_upload_file  /etc/fdfs/client.conf  /opt/1.txt

          使用瀏覽器訪問返回的url: http://192.168.224.20:8080/group1/M00/00/00/wKjgGlVYgi6AAv3tAAAADv4ZzcQ572.txt

          也可以直接訪問檔案所在的storage: http://192.168.224.25:8080/group1/M00/00/00/wKjgGlVYgi6AAv3tAAAADv4ZzcQ572.txt

          上述如果訪問成功,會在 tracker 192.168.224.20 的 /opt/cache中產生快取

          我們還可以通過在url中新增purge清除快取,例如: http://192.168.224.20:8080/purge/group1/M00/00/00/wKjgGlVYgi6AAv3tAAAADv4ZzcQ572.txt

       參考資料:

相關推薦

分散式儲存 CentOS6.5虛擬機器環境搭建FastDFS-5.0.5叢集

前言:       由於公司專案需要,最近開始學習一下分散式儲存相關知識,確定使用FastDFS這個開源工具。利用週末的時間在虛擬機器上搭建了分散式儲存系統,在搭建過程中,發現網上的資料說的並不是很全,有些細節需要單獨搜尋或者自己判斷,所以現在想寫這篇部落格儘量記錄一下自己在過程中遇到的問題,以及是如何解決

windows10+eclipse neon+hadoop2.6.4(偽分散式)遠端連線虛擬機器環境搭建

0.需要用到的工具 jdk(我的是1.8) hadoop-eclipse-plugin-2.6.4.jar(這裡我提供已編譯好的包 下載地址,若是其他版本可自行搜尋或用ant和hadoop原始碼自行編譯) eclipse(我的版本是neon) hadoop-2.6.4.t

CentOS6.5虛擬機器搭建Hadoop偽分散式環境

一、 實驗環境 作業系統:CentOS6.5 Hadoop版本:hadoop-2.7.2 JDK版本:jdk-8u73-linux-x64 二、 搭建步驟 1.安裝作業系統:使用VitualBox安裝CentOS6.5作業系統,安裝方式選擇為

VxWorks5.5 tornado2.2在win10中無法安裝成功。虛擬機器環境搭建成功經驗分享

本人因工作需要應用VxWorks5.5,在tornado2.2做開發。好老的作業系統和IDE。。。 現在電腦都是win10的了,嘗試在win10上安裝tornado2.2,沒有成功。時間關係,也就不跟它較勁了。 下載了VMware準備裝個XP安裝tornado。第一次裝VMware也是各

linux-Centos-7-64位:0虛擬機器環境搭建

學習liunx centos7 環境搭建 因為系統是window 7 系統,所以下載個虛擬機器來設定模擬 2:新建並執行虛擬機器 注:選中與要配置的映象檔案一樣的位數 64 位,不然到時虛擬機器網路連結不上 標註虛擬機器的名稱和硬碟存放位置 這裡選項拆

linux 多臺虛擬機器環境搭建

自己做個筆記,擔心以後又忘了。 一、新建虛擬機器 我用的是VMware Workstation虛擬機器軟體,打算裝的是64位的centos6.4。下載神馬的就不說了,這裡提一下,centos有兩個iso檔案,安裝系統,只用第一個就行了(CentOS-6.4-x86_64-b

CentOS 6.5 Python+PostGreSql環境搭建(openerp 7.0)

正式站點伺服器更換,現在需要把原本執行在Ubuntu上的開源ERP軟體openerp 7.0遷移到新的CentOS 6.5的伺服器上。 第一次在生產環境上配置Linux,學習到好多東西,記錄一下,方便以後會用到(比如.net core)。  同時也分享一下遷移過程中學到的東西。需要

Linux3 在VMware中搭建CentOS6.5虛擬機器

前言:      本文主要是我在大家hadoop叢集之前 ,需啊先安裝CentOS虛擬機器,記錄在此,作為參考。如果能幫助到其他人,自然是更好啦。 ============================================================長長的分割線=============

【Linux】CentOS 6.5 伺服器(虛擬機器搭建過程

一、安裝介質準備 1、 CentOS 6.5 的安裝映象分為兩張 DVD 光碟(Bin 安裝版,非 LiveCD) 注:DVD1 內包含了系統檔案及大部分常用軟體安裝包,DVD2 為額外的軟體安裝包,安裝系統時可只准備 DVD1;實驗環境搭建本地源建議兩張光碟全部

Centos6.5下docker 環境搭建

一.執行docker Linux核心版本需要在3.8以上,針對centos6.5 核心為2.6的系統需要先升級核心.不然會特別卡 在yum的ELRepo源中,有mainline(4.5)、long-term(4.4)這2個核心最新版本,考慮到long-term更穩定,會長期更

虛擬機器搭建分散式Hadoop,步驟詳解

本人安裝的版本試Hadoop2.4.1版本。首先上傳hadoop的安裝包到伺服器上去/home/hadoop/1.解壓Hadoop到指定的檔案下,我解壓的目錄在主目錄下新建的app檔案內$ tar -zxvf hadoop2.4.1.tar.gz -C app/2、配置Had

Elasticsearch-6.5.3 在Centos7,Linux 虛擬機器環境下,設定繫結的IP地址

問題背景: Elasticsearch在Linux環境下安裝很簡單,只需要在官網下載相應的tar.gz壓縮包,並使用 Linux下的解壓命令,即可。解壓完成後,可以進入該目錄下,使用./bin/elasticsearch 命令來檢測是否成功啟動elasticsearch服務。這個很簡單,具體

在VM虛擬機器搭建Hadoop2.7.3+Spark2.1.0完全分散式叢集

1.選取三臺伺服器(CentOS系統64位) 114.55.246.88主節點   114.55.246.77 從節點   114.55.246.93 從節點      之後的操作如果是用普通使用者操作的話也必須知道root使用者的密碼,因為有些操作是得

利用虛擬機器快速搭建N個分散式計算節點伺服器

------------本文是博主原創,如內容有問題,請予以指正,謝謝。------------- 搭建大資料的叢集環境,需要多個叢集節點,就是需要有多個機器,由於硬體資源有限,為達到這樣的目的,可以利用虛擬機器完成。在虛擬機器上搭建作業系統,實現和物理機一樣的操作。 第

CentOS6.5虛擬機器安裝Caffe大致記錄

1. 首先,我是在虛擬機器上安裝的,虛擬機器的安裝過程這裡不說了。安裝完centos6.5後,要看看你的網路配置,這裡可以參考: 我是自動獲取IP的。配置完成後需要重啟服務 ifconfig -a vi /etc/sysconfig/network-scripts/i

vmware的centos6.5虛擬機器網路無法連線的解決辦法

VMware是一款虛擬機器,支援各種熱門系統,我們可以在VMware虛擬機器中安裝其他系統以滿足個人需求,但在為VMware安裝CentOS6.5後,無法連線網路,這是什麼原因導致的呢?下面就給大家介紹

筆記:虛擬機器ubuntu搭建android開發環境

 如果cpu 是AMD, 並且在Windows下, android studio自帶的模擬器是不能正常執行的。 試了試安裝比較專業的genymotion模擬器, 安裝過程中也是無數的問題, 最後也沒有

可持續自動化構建微服務(1)快速搭建虛擬機器環境

1.1 軟體需求1) vagrant_1.9.6_x86_64.msi2) VirtualBox-5.1.24-117012-Win.exe3) vagrant-centos-7.2.box 1.2 準備工作1.2.1 安裝 virtualBox到 官 網 https://w

Ubuntu12.10 下搭建基於KVM-QEMU的虛擬機器環境(一)

    經過幾年的發展,基於KVM-QEMU的虛擬化技術變得越來越成熟,redhat也已經初步形成了以此為基礎的虛擬化產品。同時其他的Linux平臺(如Ubuntu)也對此有了完善的支援方案,加上各類配套軟體的開源特性,以此技術為基礎搭建一套可用的虛擬機器環境變得不再困難。

虛擬機器搭建JDK+Tomcat+Nginx環境【一】——安裝準備工作

自己動手在虛擬機器上搭建Jdk8-Tomcat8-Nginx1.12的部署環境,虛擬機器VMware workstation12,作業系統centOS 7。 一:下載軟體     火狐上搜索,直接下