1. 程式人生 > >系列3|走進Node.js之多進程模型

系列3|走進Node.js之多進程模型

指定端口 type post 這樣的 protocol 進程模型 scrip 發現 輸出

文:正龍(滬江網校Web前端工程師)

本文原創,轉載請註明作者及出處

之前的文章“走進Node.js之HTTP實現分析”中,大家已經了解 Node.js 是如何處理 HTTP 請求的,在整個處理過程,它僅僅用到單進程模型。那麽如何讓 Web 應用擴展到多進程模型,以便充分利用CPU資源呢?答案就是 Cluster。本篇文章將帶著大家一起分析Node.js的多進程模型。

首先,來一段經典的 Node.js 主從服務模型代碼:

const cluster = require(‘cluster‘);
const numCPUs = require(‘os‘).cpus().length;

if
(cluster.isMaster) { for (let i = 0; i < numCPUs; i++) { cluster.fork(); } } else { require(‘http‘).createServer((req, res) => { res.end(‘hello world‘); }).listen(3333); }

通常,主從模型包含一個主進程(master)和多個從進程(worker),主進程負責接收連接請求,以及把單個的請求任務分發給從進程處理;從進程的職責就是不斷響應客戶端請求,直至進入等待狀態。如圖 3-1 所示:

技術分享圖片

圍繞這段代碼,本文希望講述清楚幾個關鍵問題:

  1. 從進程的創建過程;

  2. 在使用同一主機地址的前提下,如果指定端口已經被監聽,其它進程嘗試監聽同一端口時本應該會報錯(EADDRINUSE,即端口已被占用);那麽,Node.js 如何能夠在主從進程上對同一端口執行 listen 方法?

進程 fork 是如何完成的?

在 Node.js 中,cluster.fork 與 POSIX 的 fork 略有不同:雖然從進程仍舊是 fork 創建,但是並不會直接使用主進程的進程映像,而是調用系統函數 execvp 讓從進程使用新的進程映像。另外,每個從進程對應一個 Worker 對象,它有如下狀態:none、online、listening、dead和disconnected。

ChildProcess 對象主要提供進程的創建(spawn)、銷毀(kill)以及進程句柄引用計數管理(ref 與 unref)。在對Process對象(process_wrap.cc)進行封裝之外,它自身也處理了一些細節問題。例如,在方法 spawn 中,如果需要主從進程之間建立 IPC 管道,則通過環境變量 NODE_CHANNEL_FD 來告知從進程應該綁定的 IPC 相關的文件描述符(fd),這個特殊的環境變量後面會被再次涉及到。

以上提到的三個對象引用關系如下:

技術分享圖片

cluster.fork 的主要執行流程:

  1. 調用 child_process.spawn;

  2. 創建 ChildProcess 對象,並初始化其 _handle 屬性為 Process 對象;Process 是 process_wrap.cc 中公布給 JavaScript 的對象,它封裝了 libuv 的進程操縱功能。附上 Process 對象的 C++ 定義:

c++ interface Process { construtor(const FunctionCallbackInfo<Value>& args); void close(const FunctionCallbackInfo<Value>& args); void spawn(const FunctionCallbackInfo<Value>& args); void kill(const FunctionCallbackInfo<Value>& args); void ref(const FunctionCallbackInfo<Value>& args); void unref(const FunctionCallbackInfo<Value>& args); void hasRef(const FunctionCallbackInfo<Value>& args); }

  1. 調用 ChildProcess._handle 的方法 spawn,並會最終調用 libuv 庫中 uv_spawn。

主進程在執行 cluster.fork 時,會指定兩個特殊的環境變量 NODE_CHANNEL_FD 和 NODE_UNIQUE_ID,所以從進程的初始化過程跟一般 Node.js 進程略有不同:

  1. bootstrap_node.js 是運行時包含的 JavaScript 入口文件,其中調用 internal\process.setupChannel;

  2. 如果環境變量包含 NODE_CHANNEL_FD,則調用 child_process._forkChild,然後移除該值;

  3. 調用 internal\child_process.setupChannel,在子進程的全局 process 對象上監聽消息 internalMessage,並且添加方法 send 和 _send。其中 send 只是對 _send 的封裝;通常,_send 只是把消息 JSON 序列化之後寫入管道,並最終投遞到接收端。

  4. 如果環境變量包含 NODE_UNIQUE_ID,則當前進程是 worker 模式,加載 cluster 模塊時會執行 workerInit;另外,它也會影響到 net.Server 的 listen 方法,worker 模式下 listen 方法會調用 cluster._getServer,該方法實質上向主進程發起消息 {"act" : "queryServer"},而不是真正監聽端口。

IPC實現細節

上文提到了 Node.js 主從進程僅僅通過 IPC 維持聯絡,那這一節就來深入分析下 IPC 的實現細節。首先,讓我們看一段示例代碼:

1-master.js

const {spawn} = require(‘child_process‘);
let child = spawn(process.execPath, [`${__dirname}/1-slave.js`], {
  stdio: [0, 1, 2, ‘ipc‘]
});

child.on(‘message‘, function(data) {
  console.log(‘received in master:‘);
  console.log(data);
});

child.send({
  msg: ‘msg from master‘
});

1-slave.js

process.on(‘message‘, function(data) {
  console.log(‘received in slave:‘);
  console.log(data);
});
process.send({
  ‘msg‘: ‘message from slave‘
});
node 1-master.js

運行結果如下:

技術分享圖片

細心的同學可能發現控制臺輸出並不是連續的,master和slave的日誌交錯打印,這是由於並行進程執行順序不可預知造成的。

socketpair

前文提到從進程實際上通過系統調用 execvp 啟動新的 Node.js 實例;也就是說默認情況下,Node.js 主從進程不會共享文件描述符表,那它們到底是如何互發消息的呢?

原來,可以利用 socketpair 創建一對全雙工匿名 socket,用於在進程間互發消息;其函數簽名如下:

int socketpair(int domain, int type, int protocol, int sv[2]);

通常情況下,我們是無法通過 socket 來傳遞文件描述符的;當主進程與客戶端建立了連接,需要把連接描述符告知從進程處理,怎麽辦?其實,通過指定 socketpair 的第一個參數為 AF_UNIX,表示創建匿名 UNIX 域套接字(UNIX domain socket),這樣就可以使用系統函數 sendmsg 和 recvmsg 來傳遞/接收文件描述符了。

主進程在調用 cluster.fork 時,相關流程如下:

  1. 創建 Pipe(pipe_wrap.cc)對象,並且指定參數 ipc 為 true;
  2. 調用 uv_spawn,options 參數為 uv_process_options_s 結構體,把 Pipe 對象存儲在結構體的屬性 stdio 中;
  3. 調用 uv__process_init_stdio,通過 socketpair 創建全雙工 socket;
  4. 調用 uv__process_open_stream,設置 Pipe 對象的 iowatcher.fd 值為全雙工 socket 之一。

至此,主從進程就可以進行雙向通信了。流程圖如下:

技術分享圖片

我們再回看一下環境變量 NODE_CHANNEL_FD,令人疑惑的是,它的值始終為3。進程級文件描述符表中,0-2分別是標準輸入stdin、標準輸出stdout和標準錯誤輸出stderr,那麽可用的第一個文件描述符就是3,socketpair 顯然會占用從進程的第一個可用文件描述符。這樣,當從進程往 fd=3 的流中寫入數據時,主進程就可以收到消息;反之,亦類似。

技術分享圖片

從 IPC 讀取消息主要是流操作,以後有機會詳解,下面列出主要流程:

  1. StreamBase::EditData 回調 onread;

  2. StreamWrap::OnReadImpl 調用 StreamWrap::EditData;

  3. StreamWrap 的構造函數會調用 set_read_cb 設置 OnReadImpl;

  4. StreamWrap::set_read_cb 設置屬性 StreamWrap::read_cb_;

  5. StreamWrap::OnRead 中引用屬性 read_cb_;

  6. StreamWrap::ReadStart 調用 uv_read_start 時傳遞 Streamwrap::OnRead 作為第3個參數:

int uv_read_start(uv_stream_t* stream, uv_alloc_cb alloc_cb, uv_read_cb read_cb)

涉及到的類圖關系如下:

技術分享圖片

服務器主從模型

以上大概分析了從進程的創建過程及其特殊性;如果要實現主從服務模型的話,還需要解決一個基本問題:從進程怎麽獲取到與客戶端間的連接描述符?我們打算從 process.send(只有在從進程的全局 process 對象上才有 send 方法,主進程可以通過 worker.process 或 worker 訪問該方法)的函數簽名著手:

void send(message, sendHandle, callback)

其參數 message 和 callback 含義也許顯而易見,分別指待發送的消息對象和操作結束之後的回調函數。那它的第二個參數 sendHandle 用途是什麽?

前文提到系統函數 socketpair 可以創建一對雙向 socket,能夠用來發送 JSON 消息,這一塊主要涉及到流操作;另外,當 sendHandle 有值時,它們還可以用於傳遞文件描述符,其過程要相對復雜一些,但是最終會調用系統函數 sendmsg 以及 recvmsg。

傳遞與客戶端的連接描述符

在主從服務模型下,主進程負責跟客戶端建立連接,然後把連接描述符通過 sendmsg 傳遞給從進程。我們來看看這一過程:

從進程

  1. 調用 http.Server.listen 方法(繼承至 net.Server);

  2. 調用 cluster._getServer,向主進程發起消息:

json { "cmd": "NODE_HANDLE", "msg": { "act": "queryServer" } }
主進程

  1. 接收處理這個消息時,會新建一個 RoundRobinHandle 對象,為變量 handle。每個 handle 與一個連接端點對應,並且對應多個從進程實例;同時,它會開啟與連接端點相應的 TCP 服務 socket。

```js
class RoundRobinHandle {
construtor(key, address, port, addressType, fd) {
// 監聽同一端點的從進程集合
this.all = [];

  // 可用的從進程集合
  this.free = [];

  // 當前等待處理的客戶端連接描述符集合
  this.handles = [];

  // 指定端點的TCP服務socket
  this.server = null;
}
add(worker, send) {
  // 把從進程實例加入this.all
}
remove(worker) {
  // 移除指定從進程
}
distribute(err, handle) {
  // 把連接描述符handle存入this.handles,並指派一個可用的從進程實例開始處理連接請求
}
handoff(worker) {
  // 從this.handles中取出一個待處理的連接描述符,並向從進程發起消息
  // {
  //  "type": "NODE_HANDLE",
  //  "msg": {
  //    "act": "newconn",
  //  }
  // }
}

}
```

  1. 調用 handle.add 方法,把 worker 對象添加到 handle.all 集合中;

  2. 當 handle.server 開始監聽客戶端請求之後,重置其 onconnection 回調函數為 RoundRobinHandle.distribute,這樣的話主進程就不用實際處理客戶端連接,只要分發連接給從進程處理即可。它會把連接描述符存入 handle.handles 集合,當有可用 worker 時,則向其發送消息 { "act": "newconn" }。如果被指派的 worker 沒有回復確認消息 { "ack": message.seq, accepted: true },則會嘗試把該連接分配給其他 worker。

流程圖如下:

從進程上調用listen

技術分享圖片

客戶端連接處理

技術分享圖片

從進程如何與主進程監聽同一端口?

原因主要有兩點:

** I. 從進程中 Node.js 運行時的初始化略有不同**

  1. 因為從進程存在環境變量 NODE_UNIQUE_ID,所以在 bootstrap_node.js 中,加載 cluster 模塊時執行 workerInit 方法。這個地方與主進程執行的 masterInit 方法不同點在於:其一,從進程上沒有 cluster.fork 方法,所以不能在從進程繼續創建子孫進程;其二,Worker 對象上的方法 disconnect 和 destroy 實現也有所差異:我們以調用 worker.destroy 為例,在主進程上時,不能直接把從進程殺掉,而是通知從進程退出,然後再把它從集合裏刪除;當在從進程上時,從進程通知完主進程然後退出就可以了;其三,從進程上 cluster 模塊新增了方法 _getServer,用於向主進程發起消息 {"act": "queryServer"},通知主進程創建 RoundRobinHandle 對象,並實際監聽指定端口地址;然後自身用一個模擬的 TCP 描述符繼續執行;

  2. 調用 cluster._setupWorker 方法,主要是初始化 cluster.worker 屬性,並監聽消息 internalMessage,處理兩種消息類型:newconn 和 disconnect;

  3. 向主進程發起消息 { "act": "online" };

  4. 因為從進程額環境變量中有 NODE_CHANNEL_FD,調用 internal\process.setupChannel時,會連接到系統函數 socketpair 創建的雙向 socket ,並監聽 internalMessage ,處理消息類型:NODE_HANDLE_ACK和NODE_HANDLE。

** II. listen 方法在主從進程中執行的代碼略有不同。**

在 net.Server(net.js)的方法 listen 中,如果是主進程,則執行標準的端口綁定流程;如果是從進程,則會調用 cluster._getServer,參見上面對該方法的描述。

最後,附上基於libuv實現的一個 C 版 Master-Slave 服務模型,GitHub地址。

啟動服務器之後,訪問 http://localhost:3333 的運行結果如下:

技術分享圖片

相信通過本篇文章的介紹,大家已經對Node.js的Cluster有了一個全面的了解。下一次作者會跟大家一起深入分析Node.js進程管理在生產環境下的可用性問題,敬請期待。

相關文章

系列1|走進Node.js之啟動過程剖析

系列2|走進Node.js 之 HTTP實現分析

技術分享圖片

推薦: 翻譯項目Master的自述:

1. 幹貨|人人都是翻譯項目的Master

2. iKcamp出品微信小程序教學共5章16小節匯總(含視頻)

3. 開始免費連載啦~每周2更共11堂iKcamp課|基於Koa2搭建Node.js實戰項目教學(含視頻)| 課程大綱介紹

系列3|走進Node.js之多進程模型