1. 程式人生 > >Nodejs cluster模塊深入探究

Nodejs cluster模塊深入探究

js

由表及裏

HTTP服務器用於響應來自客戶端的請求當客戶端請求數逐漸增大時服務端的處理機制有多種如tomcat的多線程、nginx的事件循環等。而對於node而言由於其也采用事件循環和異步I/O機制因此在高I/O並發的場景下性能非常好但是由於單個node程序僅僅利用單核cpu因此為了更好利用系統資源就需要fork多個node進程執行HTTP服務器邏輯所以node內建模塊提供了child_process和cluster模塊。利用child_process模塊我們可以執行shell命令可以fork子進程執行代碼也可以直接執行二進制文件利用cluster模塊使用node封裝好的API、IPC通道和調度機可以非常簡單的創建包括一個master進程下HTTP代理服務器 + 多個worker進程多個HTTP應用服務器

的架構並提供兩種調度子進程算法。本文主要針對cluster模塊講述node是如何實現簡介高效的服務集群創建和調度的。那麽就從代碼進入本文的主題

code1

const cluster = require(‘cluster‘);const http = require(‘http‘);if (cluster.isMaster) {  let numReqs = 0;
  setInterval(() => {    console.log(`numReqs = ${numReqs}`);
  }, 1000);  function messageHandler(msg) {    if (msg.cmd && msg.cmd === ‘notifyRequest‘) {
      numReqs += 1;
    }
  }  const numCPUs = require(‘os‘).cpus().length;  for (let i = 0; i < numCPUs; i++) {
    cluster.fork();
  }  for (const id in cluster.workers) {
    cluster.workers[id].on(‘message‘, messageHandler);
  }

} else {  // Worker processes have a http server.
  http.Server((req, res) => {
    res.writeHead(200);
    res.end(‘hello world\n‘);

    process.send({ cmd: ‘notifyRequest‘ });
  }).listen(8000);
}

主進程創建多個子進程同時接受子進程傳來的消息循環輸出處理請求的數量

子進程創建http服務器偵聽8000端口並返回響應。

泛泛的大道理誰都了解可是這套代碼如何運行在主進程和子進程中呢父進程如何向子進程傳遞客戶端的請求多個子進程共同偵聽8000端口會不會造成端口reuse error每個服務器進程最大可有效支持多少並發量主進程下的代理服務器如何調度請求 這些問題如果不深入進去便永遠只停留在寫應用代碼的層面而且不了解cluster集群創建的多進程與使用child_process創建的進程集群的區別也寫不出符合業務的最優代碼因此深入cluster還是有必要的。

cluster與net

cluster模塊與net模塊息息相關而net模塊又和底層socket有聯系至於socket則涉及到了系統內核這樣便由表及裏的了解了node對底層的一些優化配置這是我們的思路。介紹前筆者仔細研讀了node的js層模塊實現在基於自身理解的基礎上詮釋上節代碼的實現流程力圖做到清晰、易懂如果有某些紕漏也歡迎讀者指出只有在互相交流中才能收獲更多。

一套代碼多次執行

很多人對code1代碼如何在主進程和子進程執行感到疑惑怎樣通過cluster.isMaster判斷語句內的代碼是在主進程執行而其他代碼在子進程執行呢

其實只要你深入到了node源碼層面這個問題很容易作答。cluster模塊的代碼只有一句

module.exports = (‘NODE_UNIQUE_ID‘ in process.env) ?                  require(‘internal/cluster/child‘) :                  require(‘internal/cluster/master‘);

只需要判斷當前進程有沒有環境變量“NODE_UNIQUE_ID”就可知道當前進程是否是主進程而變量“NODE_UNIQUE_ID”則是在主進程fork子進程時傳遞進去的參數因此采用cluster.fork創建的子進程是一定包含“NODE_UNIQUE_ID”的。

這裏需要指出的是必須通過cluster.fork創建的子進程才有NODE_UNIQUE_ID變量如果通過child_process.fork的子進程在不傳遞環境變量的情況下是沒有NODE_UNIQUE_ID的。因此當你在child_process.fork的子進程中執行cluster.isMaster判斷時返回 true。

主進程與服務器

code1中並沒有在cluster.isMaster的條件語句中創建服務器也沒有提供服務器相關的路徑、端口和fd那麽主進程中是否存在TCP服務器有的話到底是什麽時候怎麽創建的

相信大家在學習nodejs時閱讀的各種書籍都介紹過在集群模式下主進程的服務器會接受到請求然後發送給子進程那麽問題就來到主進程的服務器到底是如何創建呢主進程服務器的創建離不開與子進程的交互畢竟與創建服務器相關的信息全在子進程的代碼中。

當子進程執行

http.Server((req, res) => {
    res.writeHead(200);
    res.end(‘hello world\n‘);

    process.send({ cmd: ‘notifyRequest‘ });
  }).listen(8000);

時http模塊會調用net模塊(確切的說http.Server繼承net.Server)創建net.Server對象同時偵聽端口。創建net.Server實例調用構造函數返回。創建的net.Server實例調用listen(8000)等待accpet連接。那麽子進程如何傳遞服務器相關信息給主進程呢答案就在listen函數中。我保證net.Server.prototype.listen函數絕沒有表面上看起來的那麽簡單它涉及到了許多IPC通信和兼容性處理可以說HTTP服務器創建的所有邏輯都在listen函數中。

延伸下在學習linux下的socket編程時服務端的邏輯依次是執行socket(),bind(),listen()和accept()在接收到客戶端連接時執行read(),write()調用完成TCP層的通信。那麽對應到node的net模塊好像只有listen()階段這是不是很難對應socket的四個階段呢其實不然node的net模塊把“bindlisten”操作全部寫入了net.Server.prototype.listen中清晰的對應底層socket和TCP三次握手而向上層使用者只暴露簡單的listen接口。

code2

Server.prototype.listen = function() {

  ...  // 根據參數創建 handle句柄
  options = options._handle || options.handle || options;  // (handle[, backlog][, cb]) where handle is an object with a handle
  if (options instanceof TCP) {    this._handle = options;    this[async_id_symbol] = this._handle.getAsyncId();
    listenInCluster(this, null, -1, -1, backlogFromArgs);    return this;
  }

  ...  var backlog;  if (typeof options.port === ‘number‘ || typeof options.port === ‘string‘) {    if (!isLegalPort(options.port)) {      throw new RangeError(‘"port" argument must be >= 0 and < 65536‘);
    }
    backlog = options.backlog || backlogFromArgs;    // start TCP server listening on host:port
    if (options.host) {
      lookupAndListen(this, options.port | 0, options.host, backlog,
                      options.exclusive);
    } else { // Undefined host, listens on unspecified address
      // Default addressType 4 will be used to search for master server
      listenInCluster(this, null, options.port | 0, 4,
                      backlog, undefined, options.exclusive);
    }    return this;
  }

  ...  throw new Error(‘Invalid listen argument: ‘ + util.inspect(options));
};

由於本文只探究cluster模式下HTTP服務器的相關內容因此我們只關註有關TCP服務器部分其他的Pipedomain socket服務不考慮。

listen函數可以偵聽端口、路徑和指定的fd因此在listen函數的實現中判斷各種參數的情況我們最為關心的就是偵聽端口的情況在成功進入條件語句後發現所有的情況最後都執行了listenInCluster函數而返回因此有必要繼續探究。

code3

function listenInCluster(server, address, port, addressType,
                         backlog, fd, exclusive) {

  ...  if (cluster.isMaster || exclusive) {
    server._listen2(address, port, addressType, backlog, fd);    return;
  }  // 後續代碼為worker執行邏輯
  const serverQuery = {
    address: address,
    port: port,
    addressType: addressType,
    fd: fd,
    flags: 0
  };

  ... 

  cluster._getServer(server, serverQuery, listenOnMasterHandle);
}

listenInCluster函數傳入了各種參數如server實例、ip、port、ip類型IPv6和IPv4、backlog底層服務端socket處理請求的最大隊列、fd等它們不是必須傳入比如創建一個TCP服務器就僅僅需要一個port即可。

簡化後的listenInCluster函數很簡單cluster模塊判斷當前進程為主進程時執行_listen2函數否則在子進程中執行cluster._getServer函數同時像函數傳遞serverQuery對象即創建服務器需要的相關信息。

因此我們可以大膽假設子進程在cluster._getServer函數中向主進程發送了創建服務器所需要的數據即serverQuery。實際上也確實如此

code4

cluster._getServer = function(obj, options, cb) {  const message = util._extend({
    act: ‘queryServer‘,
    index: indexes[indexesKey],
    data: null
  }, options);

  send(message, function modifyHandle(reply, handle) => {    if (typeof obj._setServerData === ‘function‘)
      obj._setServerData(reply.data);    if (handle)
      shared(reply, handle, indexesKey, cb);  // Shared listen socket.
    else
      rr(reply, indexesKey, cb);              // Round-robin.
  });

};

子進程在該函數中向已建立的IPC通道發送內部消息message該消息包含之前提到的serverQuery信息同時包含act: ‘queryServer‘字段等待服務端響應後繼續執行回調函數modifyHandle。

主進程接收到子進程發送的內部消息會根據act: ‘queryServer‘執行對應queryServer方法完成服務器的創建同時發送回復消息給子進程子進程執行回調函數modifyHandle繼續接下來的操作。

至此針對主進程在cluster模式下如何創建服務器的流程已完全走通主要的邏輯是在子進程服務器的listen過程中實現。

net模塊與socket

上節提到了node中創建服務器無法與socket創建對應的問題本節就該問題做進一步解釋。在net.Server.prototype.listen函數中調用了listenInCluster函數listenInCluster會在主進程或者子進程的回調函數中調用_listen2函數對應底層服務端socket建立階段的正是在這裏。

function setupListenHandle(address, port, addressType, backlog, fd) {  // worker進程中_handle為fake對象無需創建
  if (this._handle) {
    debug(‘setupListenHandle: have a handle already‘);
  } else {
    debug(‘setupListenHandle: create a handle‘);    if (rval === null)
      rval = createServerHandle(address, port, addressType, fd);    this._handle = rval;
  }  this[async_id_symbol] = getNewAsyncId(this._handle);  this._handle.onconnection = onconnection;  var err = this._handle.listen(backlog || 511);

}

通過createServerHandle函數創建句柄句柄可理解為用戶空間的socket同時給屬性onconnection賦值最後偵聽端口設定backlog。

那麽socket處理請求過程“socket(),bind()”步驟就是在createServerHandle完成。

function createServerHandle(address, port, addressType, fd) {  var handle;  // 針對網絡連接綁定地址
  if (address || port || isTCP) {    if (!address) {
      err = handle.bind6(‘::‘, port);      if (err) {
        handle.close();        return createServerHandle(‘0.0.0.0‘, port);
      }
    } else if (addressType === 6) {
      err = handle.bind6(address, port);
    } else {
      err = handle.bind(address, port);
    }
  }  return handle;
}

在createServerHandle中我們看到了如何創建socketcreateServerHandle在底層利用node自己封裝的類庫創建TCP handle也看到了bind綁定ip和地址那麽node的net模塊如何接收客戶端請求呢

必須深入c++模塊才能了解node是如何實現在c++層面調用js層設置的onconnection回調屬性v8引擎提供了c++和js層的類型轉換和接口透出在c++的tcp_wrap中

void TCPWrap::Listen(const FunctionCallbackInfo<Value>& args) {
  TCPWrap* wrap;
  ASSIGN_OR_RETURN_UNWRAP(&wrap,
                          args.Holder(),
                          args.GetReturnValue().Set(UV_EBADF));  int backloxxg = args[0]->Int32Value();  int err = uv_listen(reinterpret_cast<uv_stream_t*>(&wrap->handle_),
                      backlog,
                      OnConnection);
  args.GetReturnValue().Set(err);
}

我們關註uv_listen函數它是libuv封裝後的函數傳入了handle_,backlog和OnConnection回調函數其中handle_為node調用libuv接口創建的socket封裝OnConnection函數為socket接收客戶端連接時執行的操作。我們可能會猜測在js層設置的onconnction函數最終會在OnConnection中調用於是進一步深入探查node的connection_wrap c++模塊

template <typename WrapType, typename UVType>void ConnectionWrap<WrapType, UVType>::OnConnection(uv_stream_t* handle,                                                    int status) {  if (status == 0) {    if (uv_accept(handle, client_handle))      return;    // Successful accept. Call the onconnection callback in JavaScript land.
    argv[1] = client_obj;
  }
  wrap_data->MakeCallback(env->onconnection_string(), arraysize(argv), argv);
}

過濾掉多余信息便於分析。當新的客戶端連接到來時libuv調用OnConnection在該函數內執行uv_accept接收連接最後將js層的回調函數onconnection[通過env->onconnection_string()獲取js的回調]和接收到的客戶端socket封裝傳入MakeCallback中。其中argv數組的第一項為錯誤信息第二項為已連接的clientSocket封裝最後在MakeCallback中執行js層的onconnection函數該函數的參數正是argv數組傳入的數據“錯誤代碼和clientSocket封裝”。

js層的onconnection回調

function onconnection(err, clientHandle) {  var handle = this;  if (err) {    self.emit(‘error‘, errnoException(err, ‘accept‘));    return;
  }  var socket = new Socket({
    handle: clientHandle,
    allowHalfOpen: self.allowHalfOpen,
    pauseOnCreate: self.pauseOnConnect
  });
  socket.readable = socket.writable = true;  self.emit(‘connection‘, socket);
}

這樣node在C++層調用js層的onconnection函數構建node層的socket對象並觸發connection事件完成底層socket與node net模塊的連接與請求打通。

至此我們打通了socket連接建立過程與net模塊js層的流程的交互這種封裝讓開發者在不需要查閱底層接口和數據結構的情況下僅使用node提供的http模塊就可以快速開發一個應用服務器將目光聚集在業務邏輯中。

backlog是已連接但未進行accept處理的socket隊列大小。在linux 2.2以前backlog大小包括了半連接狀態和全連接狀態兩種隊列大小。linux 2.2以後分離為兩個backlog來分別限制半連接SYN_RCVD狀態的未完成連接隊列大小跟全連接ESTABLISHED狀態的已完成連接隊列大小。這裏的半連接狀態即在三次握手中服務端接收到客戶端SYN報文後並發送SYN+ACK報文後的狀態此時服務端等待客戶端的ACK全連接狀態即服務端和客戶端完成三次握手後的狀態。backlog並非越大越好當等待accept隊列過長服務端無法及時處理排隊的socket會造成客戶端或者前端服務器如nignx的連接超時錯誤出現“error: Broken Pipe”。因此node默認在socket層設置backlog默認值為511這是因為nginx和redis默認設置的backlog值也為此盡量避免上述錯誤。

多個子進程與端口復用

再回到關於cluster模塊的主線中來。code1中主進程與所有子進程通過消息構建出偵聽8000端口的TCP服務器那麽子進程中有沒有也創建一個服務器同時偵聽8000端口呢其實在子進程中壓根就沒有這回事如何理解呢子進程中確實創建了net.Server對象可是它沒有像主進程那樣在libuv層構建socket句柄子進程的net.Server對象使用的是一個人為fake出的一個假句柄來“欺騙”使用者端口已偵聽這樣做的目的是為了集群的負載均衡這又涉及到了cluster模塊的均衡策略的話題上。

在本節有關cluster集群端口偵聽以及請求處理的描述都是基於cluster模式的默認策略RoundRobin之上討論的關於調度策略的討論我們放在下節進行。

主進程與服務器這一章節最後我們只了解到主進程是如何創建偵聽給定端口的TCP服務器的此時子進程還在等待主進程創建後發送的消息。當主進程發送創建服務器成功的消息後子進程會執行modifyHandle回調函數。還記得這個函數嗎主進程與服務器這一章節最後已經貼出來它的源碼

function modifyHandle(reply, handle) => {    if (typeof obj._setServerData === ‘function‘)
      obj._setServerData(reply.data);    if (handle)
      shared(reply, handle, indexesKey, cb);  // Shared listen socket.
    else
      rr(reply, indexesKey, cb);              // Round-robin.
  }

它會根據主進程是否返回handle句柄即libuv對socket的封裝來選擇執行函數。由於cluter默認采用RoundRobin調度策略因此主進程返回的handle為null執行函數rr。在該函數中做了上文提到的hack操作作者fake了一個假的handle對象“欺騙”上層調用者

function listen(backlog) {    return 0;
  }  const handle = { close, listen, ref: noop, unref: noop };

  handles[key] = handle;
  cb(0, handle);

看到了嗎fake出的handle.listen並沒有調用libuv層的Listen方法它直接返回了。這意味著什麽子進程壓根沒有創建底層的服務端socket做偵聽所以在子進程創建的HTTP服務器偵聽的端口根本不會出現端口復用的情況。 最後調用cb函數將fake後的handle傳遞給上層net.Server設置net.Server對底層的socket的引用。此後子進程利用fake後的handle做端口偵聽其實壓根啥都沒有做執行成功後返回。

那麽子進程TCP服務器沒有創建底層socket如何接受請求和發送響應呢這就要依賴IPC通道了。既然主進程負責接受客戶端請求那麽理所應當由主進程分發客戶端請求給某個子進程由子進程處理請求。實際上也確實是這樣做的主進程的服務器中會創建RoundRobinHandle決定分發請求給哪一個子進程篩選出子進程後發送newconn消息給對應子進程

  const message = { act: ‘newconn‘, key: this.key };

  sendHelper(worker.process, message, handle, (reply) => {    if (reply.accepted)
      handle.close();    else
      this.distribute(0, handle);  // Worker is shutting down. Send to another.    this.handoff(worker);
  });

子進程接收到newconn消息後會調用內部的onconnection函數先向主進程發送開始處理請求的消息然後執行業務處理函數handle.onconnection。還記得這個handle.onconnection嗎它正是上節提到的node在c++層執行的js層回調函數在handle.onconnection中構造了net.Socket對象標識已連接的socket最後觸發connection事件調用開發者的業務處理函數此時的數據處理對應在網絡模型的第四層傳輸層中node的http模塊會從socket中獲取數據做應用層的封裝解析出請求頭、請求體並構造響應體這樣便從內核socket->libuv->js依次執行到開發者的業務邏輯中。

到此為止相信讀者已經明白node是如何處理客戶端的請求了那麽下一步繼續探究node是如何分發客戶端的請求給子進程的。

請求分發策略

上節提到cluster模塊默認采用RoundRobin調度策略那麽還有其他策略可以選擇嗎答案是肯定的在windows機器中cluster模塊采用的是共享服務端socket方式通俗點說就是由操作系統進行調度客戶端的請求而不是由node程序調度。其實在node v0.8以前默認的集群模式就是采用操作系統調度方式進行直到cluster模塊的加入才有了改變。

那麽RoundRobin調度策略到底是怎樣的呢

RoundRobinHandle.prototype.distribute = function(err, handle) {  this.handles.push(handle);  const worker = this.free.shift();  if (worker)    this.handoff(worker);
};// 發送消息和handle給對應worker進程處理業務邏輯RoundRobinHandle.prototype.handoff = function(worker) {  if (worker.id in this.all === false) {    return;  // Worker is closing (or has closed) the server.
  }  const handle = this.handles.shift();  if (handle === undefined) {    this.free.push(worker);  // Add to ready queue again.
    return;
  }  const message = { act: ‘newconn‘, key: this.key };

  sendHelper(worker.process, message, handle, (reply) => {    if (reply.accepted)
      handle.close();    else
      this.distribute(0, handle);  // Worker is shutting down. Send to another.

    this.handoff(worker);
  });
};

核心代碼就是這兩個函數濃縮的是精華。distribute函數負責篩選出處理請求的子進程this.free數組存儲空閑的子進程this.handles數組存放待處理的用戶請求。handoff函數獲取排隊中的客戶端請求並通過IPC發送句柄handle和newconn消息等待子進程返回。當子進程返回正在處理請求消息時在此執行handoff函數繼續分配請求給該子進程不管該子進程上次請求是否處理完成node的異步特性和事件循環可以讓單進程處理多請求。按照這樣的策略主進程每fork一個子進程都會調用handoff函數進入該子進程的處理循環中。一旦主進程沒有緩存的客戶端請求時this.handles為空便會將當前子進程加入free空閑隊列等待主進程的下一步調度。這就是cluster模式的RoundRobin調度策略每個子進程的處理邏輯都是一個閉環直到主進程緩存的客戶端請求處理完畢時該子進程的處理閉環才被打開。

這麽簡單的實現帶來的效果卻是不小經過全世界這麽多使用者的嘗試主進程分發請求還是很平均的如果RoundRobin的調度需求不滿足你業務中的要求你可以嘗試仿照RoundRobin模塊寫一個另類的調度算法。

那麽cluster模塊在windows系統中采用的shared socket策略後文簡稱SS策略是什麽呢采用SS策略調度算法子進程的服務器工作邏輯完全不同於上文中所講的那樣子進程創建的TCP服務器會在底層偵聽端口並處理響應這是如何實現的呢SS策略的核心在於IPC傳輸句柄的文件描述符並且在C++層設置端口的SO_REUSEADDR選項最後根據傳輸的文件描述符還原出handle(net.TCP)處理請求。這正是shared socket名稱由來共享文件描述符。

子進程繼承父進程fd處理請求

import socketimport osdef main():
    serversocket = socket.socket(socket.AF_INET, socket.SOCK_STREAM)
    serversocket.bind(("127.0.0.1", 8888))
    serversocket.listen(0)    # Child Process
    if os.fork() == 0:
        accept_conn("child", serversocket)

    accept_conn("parent", serversocket)def accept_conn(message, s):
    while True:
        c, addr = s.accept()        print ‘Got connection from in %s‘ % message
        c.send(‘Thank you for your connecting to %s\n‘ % message)
        c.close()if __name__ == "__main__":
    main()

需要指出的是在子進程中根據文件描述符還原出的handle不能再進行bind(ip,port)和listen(backlog)操作只有主進程創建的handle可以調用這些函數。子進程中只能選擇accept、read和write操作。

既然SS策略傳遞的是master進程的服務端socket的文件描述符子進程偵聽該描述符那麽由誰來調度哪個子進程處理請求呢這就是由操作系統內核來進行調度。可是內核調度往往出現意想不到的效果在linux下導致請求往往集中在某幾個子進程中處理。這從內核的調度策略也可以推算一二內核的進程調度離不開上下文切換上下文切換的代價很高不僅需要保存當前進程的代碼、數據和堆棧等用戶空間數據還需要保存各種寄存器如PCESP最後還需要恢復被調度進程的上下文狀態仍然包括代碼、數據和各種寄存器因此代價非常大。而linux內核在調度這些子進程時往往傾向於喚醒最近被阻塞的子進程上下文切換的代價相對較小。而且內核的調度策略往往受到當前系統的運行任務數量和資源使用情況對專註於業務開發的http服務器影響較大因此會造成某些子進程的負載嚴重不均衡的狀況。那麽為什麽cluster模塊默認會在windows機器中采用SS策略調度子進程呢原因是node在windows平臺采用的IOCP來最大化性能它使得傳遞連接的句柄到其他進程的成本很高因此采用默認的依靠操作系統調度的SS策略。

SS調度策略非常簡單主進程直接通過IPC通道發送handle給子進程即可此處就不針對代碼進行分析了。此處筆者利用node的child_process模塊實現了一個簡易的SS調度策略的服務集群讀者可以更好的理解

master代碼

var net = require(‘net‘);var cp = require(‘child_process‘);var w1 = cp.fork(‘./singletest/worker.js‘);var w2 = cp.fork(‘./singletest/worker.js‘);var w3 = cp.fork(‘./singletest/worker.js‘);var w4 = cp.fork(‘./singletest/worker.js‘);var server = net.createServer();

server.listen(8000,function(){  // 傳遞句柄
  w1.send({type: ‘handle‘},server);
  w2.send({type: ‘handle‘},server);
  w3.send({type: ‘handle‘},server);
  w4.send({type: ‘handle‘},server);
  server.close();
});

child代碼

var server = require(‘http‘).createServer(function(req,res){
  res.write(cluster.isMaster + ‘‘);
  res.end(process.pid+‘‘)
})var cluster = require(‘cluster‘);
process.on(‘message‘,(data,handle)=>{  if(data.type !== ‘handle‘)    return;

  handle.on(‘connection‘,function(socket){
    server.emit(‘connection‘,socket)
  });
});

這種方式便是SS策略的典型實現不推薦使用者嘗試。

結尾

開篇提到的一些問題至此都已經解答完畢關於cluster模塊的一些具體實現本文不做詳細描述有興趣感受node源碼的同學可以在閱讀本文的基礎上再翻閱這樣事半功倍。本文是在node源碼和筆者的計算機網絡基礎之上混合後的產物起因於筆者研究PM2的cluster模式下God進程的具體實現。在嘗試幾天仔細研讀node cluster相關模塊後有感於其良好的封裝性故產生將其內部實現原理和技巧向日常開發者所展示的想法最後有了這篇文章。

那麽閱讀了這篇文章熟悉了cluster模式的具體實現原理對於日常開發者有什麽促進作用呢首先能不停留在使用層面深入到具體實現原理中去這便是比大多數人強了在理解實現機制的階段下如果能反哺業務開發就更有意義了。比如根據業務設計出更匹配的負載均衡邏輯根據服務的日常QPS設置合理的backlog值等最後在探究實現的過程中我們又回顧了許多離應用層開發人員難以接觸到的底層網絡編程和操作系統知識這同時也是學習深入的過程。

接下來筆者可能會抽時間針對node的其他常用模塊做一次細致的解讀。其實node較為重要的Stream模塊筆者已經分析過了node中的Stream、深入node之Transform經過深入探究之後在日常開發node應用中有著很大的提升作用讀者們可以嘗試下。既然提到了Stream模塊那麽結合本文的net模塊解析我們就非常容易理解node http模塊的實現了因為http模塊正是基於net和Stream模塊實現的。那麽下一篇文章就針對http模塊做深入解析吧


Nodejs cluster模塊深入探究