1. 程式人生 > >HTTP 協議中的 Transfer-Encoding和Content-Length區別

HTTP 協議中的 Transfer-Encoding和Content-Length區別

原文出處
Transfer-Encoding,是一個 HTTP 頭部欄位,字面意思是「傳輸編碼」。實際上,HTTP 協議中還有另外一個頭部與編碼有關:Content-Encoding(內容編碼)。Content-Encoding 通常用於對實體內容進行壓縮編碼,目的是優化傳輸,例如用 gzip 壓縮文字檔案,能大幅減小體積。內容編碼通常是選擇性的,例如 jpg / png 這類檔案一般不開啟,因為圖片格式已經是高度壓縮過的,再壓一遍沒什麼效果不說還浪費 CPU。

而 Transfer-Encoding 則是用來改變報文格式,它不但不會減少實體內容傳輸大小,甚至還會使傳輸變大,那它的作用是什麼呢?本文接下來主要就是講這個。我們先記住一點,Content-Encoding 和 Transfer-Encoding 二者是相輔相成的,對於一個 HTTP 報文,很可能同時進行了內容編碼和傳輸編碼。

Persistent Connection

暫時把 Transfer-Encoding 放一邊,我們來看 HTTP 協議中另外一個重要概念:Persistent Connection(持久連線,通俗說法長連線)。我們知道 HTTP 執行在 TCP 連線之上,自然也有著跟 TCP 一樣的三次握手、慢啟動等特性,為了儘可能的提高 HTTP 效能,使用持久連線就顯得尤為重要了。為此,HTTP 協議引入了相應的機制。

HTTP/1.0 的持久連線機制是後來才引入的,通過 Connection: keep-alive 這個頭部來實現,服務端和客戶端都可以使用它告訴對方在傳送完資料之後不需要斷開 TCP 連線,以備後用。HTTP/1.1 則規定所有連線都必須是持久的,除非顯式地在頭部加上 Connection: close。所以實際上,HTTP/1.1 中 Connection 這個頭部欄位已經沒有 keep-alive 這個取值了,但由於歷史原因,很多 Web Server 和瀏覽器,還是保留著給 HTTP/1.1 長連線傳送 Connection: keep-alive 的習慣。

瀏覽器重用已經開啟的空閒持久連線,可以避開緩慢的三次握手,還可以避免遇上 TCP 慢啟動的擁塞適應階段,聽起來十分美妙。為了深入研究持久連線的特性,我決定用 Node 寫一個最簡單的 Web Server 用於測試,Node 提供了 http 模組用於快速建立 HTTP Web Server,但我需要更多的控制,所以用 net 模組建立了一個 TCP Server:

require('net').createServer(function(sock) {
    sock.on('data', function(data) {
        sock.write('HTTP/1.1 200 OK\r\n');
        sock.write('\r\n');
        sock.write('hello world!');
        sock.destroy();
    });
}).listen(9090, '127.0.0.1');

啟動服務後,在瀏覽器裡訪問 127.0.0.1:9090,正確輸出了指定內容,一切正常。去掉 sock.destroy() 這一行,讓它變成持久連線,重啟服務後再訪問一下。這次的結果就有點奇怪了:遲遲看不到輸出,通過 Network 檢視請求狀態,一直是 pending。

這是因為,對於非持久連線,瀏覽器可以通過連線是否關閉來界定請求或響應實體的邊界;而對於持久連線,這種方法顯然不奏效。上例中,儘管我已經發送完所有資料,但瀏覽器並不知道這一點,它無法得知這個開啟的連線上是否還會有新資料進來,只能傻傻地等了。

Content-Length

要解決上面這個問題,最容易想到的辦法就是計算實體長度,並通過頭部告訴對方。這就要用到 Content-Length 了,改造一下上面的例子:

require('net').createServer(function(sock) {
    sock.on('data', function(data) {
        sock.write('HTTP/1.1 200 OK\r\n');
        sock.write('Content-Length: 12\r\n');
        sock.write('\r\n');
        sock.write('hello world!');
    });
}).listen(9090, '127.0.0.1');

可以看到,這次傳送完資料並沒有關閉 TCP 連線,但瀏覽器能正常輸出內容並結束請求,因為瀏覽器可以通過 Content-Length 的長度資訊,判斷出響應實體已結束。那如果 Content-Length 和實體實際長度不一致會怎樣?有興趣的同學可以自己試試,通常如果 Content-Length 比實際長度短,會造成內容被截斷;如果比實體內容長,會造成 pending。

由於 Content-Length 欄位必須真實反映實體長度,但實際應用中,有些時候實體長度並沒那麼好獲得,例如實體來自於網路檔案,或者由動態語言生成。這時候要想準確獲取長度,只能開一個足夠大的 buffer,等內容全部生成好再計算。但這樣做一方面需要更大的記憶體開銷,另一方面也會讓客戶端等更久。

我們在做 WEB 效能優化時,有一個重要的指標叫 TTFB(Time To First Byte),它代表的是從客戶端發出請求到收到響應的第一個位元組所花費的時間。大部分瀏覽器自帶的 Network 面板都可以看到這個指標,越短的 TTFB 意味著使用者可以越早看到頁面內容,體驗越好。可想而知,服務端為了計算響應實體長度而快取所有內容,跟更短的 TTFB 理念背道而馳。但在 HTTP 報文中,實體一定要在頭部之後,順序不能顛倒,為此我們需要一個新的機制:不依賴頭部的長度資訊,也能知道實體的邊界。

Transfer-Encoding: chunked

本文主角終於再次出現了,Transfer-Encoding 正是用來解決上面這個問題的。歷史上 Transfer-Encoding 可以有多種取值,為此還引入了一個名為 TE 的頭部用來協商採用何種傳輸編碼。但是最新的 HTTP 規範裡,只定義了一種傳輸編碼:分塊編碼(chunked)。

分塊編碼相當簡單,在頭部加入 Transfer-Encoding: chunked 之後,就代表這個報文采用了分塊編碼。這時,報文中的實體需要改為用一系列分塊來傳輸。每個分塊包含十六進位制的長度值和資料,長度值獨佔一行,長度不包括它結尾的 CRLF(\r\n),也不包括分塊資料結尾的 CRLF。最後一個分塊長度值必須為 0,對應的分塊資料沒有內容,表示實體結束。按照這個格式改造下之前的程式碼:

require('net').createServer(function(sock) {
    sock.on('data', function(data) {
        sock.write('HTTP/1.1 200 OK\r\n');
        sock.write('Transfer-Encoding: chunked\r\n');
        sock.write('\r\n');

        sock.write('b\r\n');
        sock.write('01234567890\r\n');

        sock.write('5\r\n');
        sock.write('12345\r\n');

        sock.write('0\r\n');
        sock.write('\r\n');
    });
}).listen(9090, '127.0.0.1');

上面這個例子中,我在響應頭中表明接下來的實體會採用分塊編碼,然後輸出了 11 位元組的分塊,接著又輸出了 5 位元組的分塊,最後用一個 0 長度的分塊表明資料已經傳完了。用瀏覽器訪問這個服務,可以得到正確結果。可以看到,通過這種簡單的分塊策略,很好的解決了前面提出的問題。

前面說過 Content-Encoding 和 Transfer-Encoding 二者經常會結合來用,其實就是針對進行了內容編碼(壓縮)的內容再進行傳輸編碼(分塊)。下面是我用 telnet 請求測試頁面得到的響應,可以看到對 gzip 內容進行的分塊:

> telnet 106.187.88.156 80

GET /test.php HTTP/1.1
Host: qgy18.qgy18.com
Accept-Encoding: gzip

HTTP/1.1 200 OK
Server: nginx
Date: Sun, 03 May 2015 17:25:23 GMT
Content-Type: text/html
Transfer-Encoding: chunked
Connection: keep-alive
Content-Encoding: gzip

1f
�H���W(�/�I�J

0