1. 程式人生 > >Linux下的5種I/O模型(轉)

Linux下的5種I/O模型(轉)

Linux下的五種I/O模型:

  l         阻塞I/O

  l         非阻塞I/O

  l         I/O複用(select、poll、epoll)

  l         訊號驅動I/O(SIGIO)

  l         非同步I/O(Posix.1的aio_系列函式)

 

 l         阻塞I/O模型

      應用程式呼叫一個IO函式,導致應用程式阻塞,等待資料準備好。如果資料沒有準備好,一直等待。。。。資料準備好了,從核心拷貝到使用者空,IO函式返回成功指示。在這種模式下,基本上IO操作都會用一個Work Thread來進行(Java)。

      wKioL1OydkKiCem0AADjUYMmHgE905.jpg

 

 

 l         非阻塞I/O模型

      我們把一個SOCKET介面設定為非阻塞就是告訴核心,當所請求的I/O操作無法完成時,不要將程序睡眠,而是返回一個錯誤。這樣我們的I/O操作函式將不斷的測試資料是否已經準備好,如果沒有準備好,繼續測試,直到資料準備好為止。在這個不斷測試的過程中,會大量的佔用CPU的時間。

      把SOCKET設定為非阻塞模式,即通知系統核心:在呼叫Sockets API時,不要讓執行緒睡眠,而應該讓函式立即返回。在返回時,該函式返回一個錯誤程式碼。圖所示,一個非阻塞模式套接字多次呼叫recv()函式的過程。前三次呼叫recv()函式時,核心資料還沒有準備好。因此,該函式立即返回WSAEWOULDBLOCK錯誤程式碼。第四次呼叫recv()函式時,資料已經準備好,被複制到應用程式的緩衝區中,recv()函式返回成功指示,應用程式開始處理資料。

      wKiom1Oyd5LhMeD7AAFjeYo-tik608.jpg

 

 l         I/O複用(select、poll、epoll)模型

      I/O複用模型會用到select、poll、epoll函式,這幾個函式也會使程序阻塞,但是和阻塞I/O所不同的是,這兩個函式可以同時阻塞多個I/O操作。而且可以同時對多個讀操作,多個寫操作的I/O函式進行檢測,直到有資料可讀或可寫時,才真正呼叫I/O操作函式。

      wKiom1OyeE_RTlrVAAE0QCeK-1g860.jpg

 

 l         訊號驅動I/O(SIGIO)模型

     首先我們允許SOCKET介面進行訊號驅動I/O,並安裝一個訊號處理函式,程序繼續執行並不阻塞。當資料準備好時,程序會收到一個SIGIO訊號,可以在訊號處理函式中呼叫I/O操作函式處理資料。

     wKiom1OyeZvCR5iIAAEwtiPDBJc022.jpg

 

 l         非同步I/O(Posix.1的aio_系列函式)模型

      呼叫aio_read函式,告訴核心描述字,緩衝區指標,緩衝區大小,檔案偏移以及通知的方式,然後立即返回。當核心將資料拷貝到緩衝區後,再通知應用程式。

      這個操作和訊號驅動的區別就是:非同步模式等操作完畢後才通知使用者程式而訊號驅動模式在資料到來時就通知使用者程式。

     wKioL1OyekuibVjHAAEDlSp0KxY726.jpg

 

 

幾種I/O模型的比較

前四種模型的區別是第一階段,第二階段基本相同,都是將資料從核心拷貝到呼叫者的緩衝區。而非同步I/O的兩個階段都不同於前四個模型。

   wKiom1OyevPT7t0TAAGmbs4mD7Y722.jpg

 

Select、Poll、Epoll介紹

   epoll跟select都能提供多路I/O複用的解決方案。在現在的Linux核心裡有都能夠支援,其中epoll是Linux所特有,而select則應該是POSIX所規定,一般作業系統均有實現

 

select:

select本質上是通過設定或者檢查存放fd標誌位的資料結構來進行下一步處理。這樣所帶來的缺點是:

1、 單個程序可監視的fd數量被限制,即能監聽埠的大小有限。

      一般來說這個數目和系統記憶體關係很大,具體數目可以cat /proc/sys/fs/file-max察看。32位機預設是102個。64位機預設是2048.

2、 對socket進行掃描時是線性掃描,即採用輪詢的方法,效率較低:

       當套接字比較多的時候,每次select()都要通過遍歷FD_SETSIZE個Socket來完成排程,不管哪個Socket是活躍的,都遍歷一遍。這會浪費很多CPU時間。如果能給套接字註冊某個回撥函式,當他們活躍時,自動完成相關操作,那就避免了輪詢,這正是epoll與kqueue做的。

3、需要維護一個用來存放大量fd的資料結構,這樣會使得使用者空間和核心空間在傳遞該結構時複製開銷大

poll:

poll本質上和select沒有區別,它將使用者傳入的陣列拷貝到核心空間,然後查詢每個fd對應的裝置狀態,如果裝置就緒則在裝置等待佇列中加入一項並繼續遍歷,如果遍歷完所有fd後沒有發現就緒裝置,則掛起當前程序,直到裝置就緒或者主動超時,被喚醒後它又要再次遍歷fd。這個過程經歷了多次無謂的遍歷。

它沒有最大連線數的限制,原因是它是基於連結串列來儲存的,但是同樣有一個缺點:

1、大量的fd的陣列被整體複製於使用者態和核心地址空間之間,而不管這樣的複製是不是有意義。                                                                                                                 2、poll還有一個特點是“水平觸發”,如果報告了fd後,沒有被處理,那麼下次poll時會再次報告該fd。

epoll:

epoll支援水平觸發和邊緣觸發,最大的特點在於邊緣觸發,它只告訴程序哪些fd剛剛變為就需態,並且只會通知一次。還有一個特點是,epoll使用“事件”的就緒通知方式,通過epoll_ctl註冊fd,一旦該fd就緒,核心就會採用類似callback的回撥機制來啟用該fd,epoll_wait便可以收到通知

epoll的優點:

1、沒有最大併發連線的限制,能開啟的FD的上限遠大於1024(1G的記憶體上能監聽約10萬個埠);
2、效率提升,不是輪詢的方式,不會隨著FD數目的增加效率下降。只有活躍可用的FD才會呼叫callback函式;
   即Epoll最大的優點就在於它只管你“活躍”的連線,而跟連線總數無關,因此在實際的網路環境中,Epoll的效率就會遠遠高於select和poll。

3、 記憶體拷貝,利用mmap()檔案對映記憶體加速與核心空間的訊息傳遞;即epoll使用mmap減少複製開銷。

 

select、poll、epoll 區別總結:

1、支援一個程序所能開啟的最大連線數

Select 單個程序所能開啟的最大連線數有FD_SETSIZE巨集定義,其大小是32個整數的大小(在32位的機器上,大小就是32*32,同理64位機器上FD_SETSIZE為32*64),當然我們可以對進行修改,然後重新編譯核心,但是效能可能會受到影響,這需要進一步的測試。
Poll poll本質上和select沒有區別,但是它沒有最大連線數的限制,原因是它是基於連結串列來儲存的
Epoll 雖然連線數有上限,但是很大,1G記憶體的機器上可以開啟10萬左右的連線,2G記憶體的機器可以開啟20萬左右的連線

2、FD劇增後帶來的IO效率問題

Select 因為每次呼叫時都會對連線進行線性遍歷,所以隨著FD的增加會造成遍歷速度慢的“線性下降效能問題”。
Poll 同上
Epoll 因為epoll核心中實現是根據每個fd上的callback函式來實現的,只有活躍的socket才會主動呼叫callback,所以在活躍socket較少的情況下,使用epoll沒有前面兩者的線性下降的效能問題,但是所有socket都很活躍的情況下,可能會有效能問題。

3、 訊息傳遞方式

Select 核心需要將訊息傳遞到使用者空間,都需要核心拷貝動作
Poll 同上
Epoll epoll通過核心和使用者空間共享一塊記憶體來實現的。

總結:

綜上,在選擇select,poll,epoll時要根據具體的使用場合以及這三種方式的自身特點。

1、表面上看epoll的效能最好,但是在連線數少並且連線都十分活躍的情況下,select和poll的效能可能比epoll好,畢竟epoll的通知機制需要很多函式回撥。

2、select低效是因為每次它都需要輪詢。但低效也是相對的,視情況而定,也可通過良好的設計改善。