1. 程式人生 > >Linux高性能網絡:協程系列02-協程的起源

Linux高性能網絡:協程系列02-協程的起源

一個 這份 服務器 == 時間短 imageview 結果 png 上下

目錄
  • Linux高性能網絡:協程系列01-前言
  • Linux高性能網絡:協程系列02-協程的起源
  • Linux高性能網絡:協程系列03-協程的案例
  • Linux高性能網絡:協程系列04-協程實現之工作原理
  • Linux高性能網絡:協程系列05-協程實現之原語操作
  • Linux高性能網絡:協程系列06-協程實現之切換
  • Linux高性能網絡:協程系列07-協程實現之定義
  • Linux高性能網絡:協程系列08-協程實現之調度器
  • Linux高性能網絡:協程系列09-協程性能測試
  • [Linux高性能網絡:協程系列10 待續]()

2.協程的起源

  問題:協程存在的原因?協程能夠解決哪些問題?

  在我們現在CS,BS開發模式下,服務器的吞吐量是一個很重要的參數。其實吞吐量是IO處理時間加上業務處理。為了簡單起見,比如,客戶端與服務器之間是長連接的,客戶端定期給服務器發送心跳包數據。客戶端發送一次心跳包到服務器,服務器更新該新客戶端狀態的。心跳包發送的過程,業務處理時長等於IO讀取(RECV系統調用)加上業務處理(更新客戶狀態)。吞吐量等於1s業務處理次數。

技術分享圖片
  業務處理(更新客戶端狀態)時間,業務不一樣的,處理時間不一樣,我們就不做討論。

  那如何提升recv的性能。若只有一個客戶端,recv的性能也沒有必要提升,也不能提升。若在有百萬計的客戶端長連接的情況,我們該如何提升。以Linux為例,在這裏需要介紹一個“網紅”就是epoll。服務器使用epoll管理百萬計的客戶端長連接,代碼框架如下:

while (1) {
    int nready = epoll_wait(epfd, events, EVENT_SIZE, -1);

    for (i = 0;i < nready;i ++) {

        int sockfd = events[i].data.fd;
        if (sockfd == listenfd) {
            int connfd = accept(listenfd, xxx, xxxx);

            setnonblock(connfd);

            ev.events = EPOLLIN | EPOLLET;
            ev.data.fd = connfd;
            epoll_ctl(epfd, EPOLL_CTL_ADD, connfd, &ev);

        } else {
            handle(sockfd);
        }
    }
}

  對於響應式服務器,所有的客戶端的操作驅動都是來源於這個大循環。來源於epoll_wait的反饋結果。
對於服務器處理百萬計的IO。Handle(sockfd)實現方式有兩種。

  • handle(sockfd)函數內部對sockfd進行讀寫動作
int handle(int sockfd) {

    recv(sockfd, rbuffer, length, 0);

    parser_proto(rbuffer, length);

    send(sockfd, sbuffer, length, 0);

}
  • handle的io操作(send,recv)與epoll_wait是在同一個處理流程裏面的。這就是IO同步操作。

    優點:
    1.sockfd管理方便。
    2.操作邏輯清晰。
    缺點:
    1.服務器程序依賴epoll_wait的循環響應速度慢。
    2.程序性能差

  • handle(sockfd)函數內部將sockfd的操作,push到線程池中:
int thread_cb(int sockfd) {
    // 此函數是在線程池創建的線程中運行。
    // 與handle不在一個線程上下文中運行
    recv(sockfd, rbuffer, length, 0);
    parser_proto(rbuffer, length);
    send(sockfd, sbuffer, length, 0);
}

int handle(int sockfd) {
    //此函數在主線程 main_thread 中運行
    //在此處之前,確保線程池已經啟動。
    push_thread(sockfd, thread_cb); //將sockfd放到其他線程中運行。
}

  Handle函數是將sockfd處理方式放到另一個已經其他的線程中運行,如此做法,將io操作(recv,send)與epoll_wait 不在一個處理流程裏面,使得io操作(recv,send)與epoll_wait實現解耦。這就叫做IO異步操作。
優點:
1.子模塊好規劃。
2.程序性能高。
缺點:
正因為子模塊好規劃,使得模塊之間的sockfd的管理異常麻煩。每一個子線程都需要管理好sockfd,避免在IO操作的時候,sockfd出現關閉或其他異常。

  上文有提到IO同步操作,程序響應慢,IO異步操作,程序響應快。

  下面來對比一下IO同步操作與IO異步操作,代碼如下:
server_mulport_epool.c
  在這份代碼的main函數內,#if 1, 打開的時候,為IO異步操作。關閉的時候,為IO同步操作。

#if 1
                if (nRun) {
                    printf(" New Data is Comming\n");
                    client_data_process(clientfd);
                } else {

                    client_t *rClient = (client_t*)malloc(sizeof(client_t));
                    memset(rClient, 0, sizeof(client_t));               
                    rClient->fd = clientfd;

                    job_t *job = malloc(sizeof(job_t));
                    job->job_function = client_job;
                    job->user_data = rClient;
                    workqueue_add_job(&workqueue, job);

                }
#else
                client_data_process(clientfd);          
#endif

  接下來把我測試接入量的結果粘貼出來。

  • IO異步操作
    IO異步操作,每1000個連接接入的服務器響應時間(900ms左右)。
    技術分享圖片
  • IO同步操作
    IO同步操作,每1000個連接接入的服務器響應時間(6500ms左右)。
    技術分享圖片

epoll的IO異步操作與IO同步操作比較如下:

對比項 IO同步操作 IO異步操作
Socket管理 管理方便 多個線程共同管理
代碼邏輯 程序整體邏輯清晰 子模塊邏輯清晰
IO性能 響應時間長,性能差 響應時間短,性能好

  有沒有一種方式,有異步性能,同步的代碼邏輯。來方便編程人員對IO操作的組件呢? 有,采用一種輕量級的協程來實現。在每次send或者recv之前進行切換,再由調度器來處理epoll_wait的流程。
就是采用了基於這樣的思考,寫了NtyCo,實現了一個IO異步操作與協程結合的組件。

更多分享

email: [email protected]
email: [email protected]
email: [email protected]
協程技術交流群:829348971

Linux高性能網絡:協程系列02-協程的起源