1. 程式人生 > >服務器端編程心得(六)—— 關於網絡編程的一些實用技巧和細節

服務器端編程心得(六)—— 關於網絡編程的一些實用技巧和細節

之一 except 而在 移動 平臺 應用 過程 ace pragma

這些年,接觸了形形色色的項目,寫了不少網絡編程的代碼,從windows到linux,跌進了不少坑,由於網絡編程涉及很多細節和技巧,一直想寫篇文章來總結下這方面的心得與經驗,希望對來者有一點幫助,那就善莫大焉了。 本文涉及的平臺包括windows和linux,下面開始啦。

一、非阻塞的的connect()函數如何編寫

我們知道用connect()函數默認是阻塞的,直到三次握手建立之後,或者實在連不上超時返回,期間程序執行流一直阻塞在那裏。那麽如何利用connect()函數編寫非阻塞的連接代碼呢?

無論在windows還是linux平臺都可以采取以下思路來實現:

  1. 創建socket時,將socket設置成非阻塞模式,具體如何設置可參考我這個系列的文章《服務器編程心得(四)—— 如何將socket設置為非阻塞模式》;

  2. 接著調用connect()進行連接,如果connect()能立即連接成功,則返回0;如果此刻不能立即連接成功,則返回-1(windows上返回SOCKET_ERROR也等於-1),這個時候錯誤碼是WSAEWOULDBLOCK(windows平臺),或者是EINPROGRESS(linux平臺),表明立即暫時不能完成。

  3. 接著調用select()函數在指定的時間內檢測socket是否可寫,如果可寫表明connect()連接成功。

需要註意的是:linux平臺上connect()暫時不能完成返回-1,錯誤碼可能是EINPROGRESS,也可能是由於被信號給中斷了,這個時候錯誤碼是:EINTR。這種情況也要考慮到;而在windows平臺上除了用select()函數去檢測socket是否可寫,也可以使用windows平臺自帶的函數WSAAsyncSelect或WSAEventSelect來檢測。

下面是代碼:

/** *@param timeout 連接超時時間,單位為秒 *@return 連接成功返回true,反之返回false **/
bool CSocket::Connect(int timeout)
{
    //windows將socket設置成非阻塞的方式
    unsigned long on = 1;
    if (::ioctlsocket(m_hSocket, FIONBIO, &on) < 0)
        return false;

    //linux將socket設置成非阻塞的方式
    //將新socket設置為non-blocking
    /*
int oldflag = ::fcntl(newfd, F_GETFL, 0); int newflag = oldflag | O_NONBLOCK; if (::fcntl(m_hSocket, F_SETFL, newflag) == -1) return false; */ struct sockaddr_in addrSrv = { 0 }; addrSrv.sin_family = AF_INET; addrSrv.sin_addr = htonl(addr); addrSrv.sin_port = htons((u_short)m_nPort); int ret = ::connect(m_hSocket, (struct sockaddr*)&addrSrv, sizeof(addrSrv)); if (ret == 0) return true; //windows下檢測WSAEWOULDBLOCK if (ret < 0 && WSAGetLastError() != WSAEWOULDBLOCK) return false; //linux下需要檢測EINPROGRESS和EINTR /* if (ret < 0 && (errno != EINPROGRESS || errno != EINTR)) return false; */ fd_set writeset; FD_ZERO(&writeset); FD_SET(m_hSocket, &writeset); struct timeval tv; tv.tv_sec = timeout; //可以利用tv_usec做更小精度的超時設置 tv.tv_usec = 0; if (::select(m_hSocket + 1, NULL, &writeset, NULL, &tv) != 1) return false; return true; }

二、非阻塞socket下如何正確的收發數據 這裏不討論阻塞模式下,阻塞模式下send和recv函數如果tcp窗口太小或沒有數據的話都是阻塞在send和recv調用處的。對於收數據,一般的流程是先用select(windows和linux平臺皆可)、WSAAsyncSelect()或WSAEventSelect()(windows平臺)、poll或epoll_wait(linux平臺)檢測socket有數據可讀,然後進行收取。對於發數據,;linux平臺下epoll模型存在水平模式和邊緣模式兩種情形,如果是邊緣模式一定要一次性把socket上的數據收取幹凈才行,也就是一定要循環到recv函數出錯,錯誤碼是EWOULDBLOCK。而linux下的水平模式或者windows平臺上可以根據業務一次性收取固定的字節數,或者收完為止。還有個區別上文也說過,就是windows下發數據的代碼稍微有點不同的就是不需要檢測錯誤碼是EINTR,只需要檢測是否是WSAEWOULDBLOCK。代碼如下:

用於windows或linux水平模式下收取數據,這種情況下收取的數據可以小於指定大小,總之一次能收到多少是多少:

bool TcpSession::Recv()
{
    //每次只收取256個字節
    char buff[256];
    //memset(buff, 0, sizeof(buff));
    int nRecv = ::recv(clientfd_, buff, 256, 0);
    if (nRecv == 0)
        return false;

    inputBuffer_.add(buff, (size_t)nRecv);

    return true;
}
如果是linux epoll邊緣模式(ET),則一定要一次性收完:
bool TcpSession::RecvEtMode()
{
    //每次只收取256個字節
    char buff[256];
    while (true)
    {
        //memset(buff, 0, sizeof(buff));
        int nRecv = ::recv(clientfd_, buff, 256, 0);
        if (nRecv == -1)
        {
            if (errno == EWOULDBLOCK || errno == EINTR)
                return true;

            return false;
        }
        //對端關閉了socket
        else if (nRecv == 0)
            return false;

       inputBuffer_.add(buff, (size_t)nRecv);
    }

    return true;
}

用於linux平臺發送數據:

bool TcpSession::Send()
{
    while (true)
    {
        int n = ::send(clientfd_, buffer_, buffer_.length(), 0);
        if (n == -1)
        {
            //tcp窗口容量不夠, 暫且發不出去,下次再發
            if (errno == EWOULDBLOCK)
                break;
            //被信號中斷,繼續發送
            else if (errno == EINTR)
                continue;

            return false;
        }
        //對端關閉了連接
        else if (n == 0)
            return false;

        buffer_.erase(n);
        //全部發送完畢
        if (buffer_.length() == 0)
            break;
    }

    return true;
}

另外,收發數據還有個技巧是設置超時時間,除了用setsocketopt函數設置send和recv的超時時間以外,還可以自定義整個收發數據過程中的超時時間,思路是開始收數據前記錄下時間,收取完畢後記錄下時間,如果這個時間差大於超時時間,則認為超時,代碼分別是:

long tmSend = 3*1000L;
long tmRecv = 3*1000L;
setsockopt(m_hSocket, IPPROTO_TCP, TCP_NODELAY,(LPSTR)&noDelay, sizeof(long));
setsockopt(m_hSocket, SOL_SOCKET,  SO_SNDTIMEO,(LPSTR)&tmSend, sizeof(long));
int httpclientsocket::RecvData(string& outbuf,int& pkglen)
{
    if(m_fd == -1)
        return -1;
    pkglen = 0;
    char buf[4096];
    time_t tstart = time(NULL);
    while(true)
    {
        int ret = ::recv(m_fd,buf,4096,0);
        if(ret == 0)
        {
            Close();
            return 0;//對方關閉socket了
        }
        else if(ret < 0)
        {
            if(errno == EAGAIN || errno ==EWOULDBLOCK || errno == EINTR)
            {
                if(time(NULL) - tstart > m_timeout)
                {
                    Close();
                    return 0;
                }
                else
                    continue;
            }
            else
            {
                Close();
                return ret;//接收出錯
            }
        }
        outbuf.append(buf,buf+ret);
        pkglen = GetBufLen(outbuf.data(),outbuf.length());
        if(pkglen <= 0)
        {//接收的數據有問題
            Close();       
            return pkglen;
        }
        else if(pkglen <= (int)outbuf.length())
            break;//收夠了
    }
    return pkglen;//返回該完整包的長度
}

三、如何獲取當前socket對應的接收緩沖區中有多少數據可讀

Windows上可以使用ioctlsocket()這個函數,代碼如下:

ulong bytesToRecv;
if (ioctlsocket(clientsock, FIONREAD, &bytesToRecv) == 0)
{
        //在這裏,bytesToRecv的值即是當前接收緩沖區中數據字節數目
}

linux平臺我沒找到類似的方法。可以采用我上面說的通用方法《非阻塞socket下如何正確的收發數據》來做。當然有人說可以這麽寫(我在linux man手冊ioctl函數欄目上並沒有看到這個函數可以使用FIONREAD這樣的標誌,不同機器可能也有差異,具體可不可以得需要你根據你的linux系統去驗證):

ulong bytesToRecv;
if (ioctl(clientsock, FIONREAD, &bytesToRecv) == 0)
{
        //在這裏,bytesToRecv的值即是當前接收緩沖區中數據字節數目
}

四、上層業務如何解析和使用收到的數據包?

這個話題實際上是繼上一個話題討論的。這個問題也可以回答常用的面試題:如何解決數據的丟包、粘包、包不完整的問題。首先,因為tcp協議是可靠的,所以不存在丟包問題,也不存在包順序錯亂問題(udp會存在這個問題,這個時候需要自己使用序號之類的機制保證了,這裏只討論tcp)。一般的做法是先收取一個固定大小的包頭信息,接著根據包頭裏面指定的包體大小來收取包體大小(這裏“收取”既可以從socket上收取,也可以在已經收取的數據緩沖區裏面拿取)。舉個例子:

#pragma pack(push, 1)
struct msg
{
    int32_t  cmd;               //協議號
    int32_t  seq;               //包序列號(同一個請求包和應答包的序列號相同)
    int32_t  packagesize;       //包體大小
    int32_t  reserved1;         //保留字段,在應答包中內容保持不變
    int32_t  reserved2;         //保留字段,在應答包中內容保持不變
};

/** * 心跳包協議 **/
struct msg_heartbeat_req
{
    msg header;
};

struct msg_heartbeat_resp
{
    msg header;
};

/** * 登錄協議 **/
struct msg_login_req
{
    msg         header;
    char        user[32];
    char        password[32];
    int32_t     clienttype;     //客戶端類型
};

struct msg_login_resp
{
    msg         header;
    int32_t     status;
    char        user[32];
    int32_t     userid;
};

#pragma pack(pop)

看上面幾個協議,拿登錄請求來說,每次可以先收取一個包頭的大小,即sizeof(msg),然後根據msg.packagesize的大小再收取包體的大小sizeof(msg_login_req) - sizeof(msg),這樣就能保證一個包完整了,如果包頭或包體大小不夠,則說明數據不完整,繼續等待更多的數據的到來。 因為tcp協議是流協議,對方發送10個字節給你,你可能先收到5個字節,再收到5個字節;或者先收到2個字節,再收到8個字節;或者先收到1個字節,再收到9個字節;或者先收到1個字節,再收到7個字節,再收到2個字節。總之,你可能以這10個字節的任意組合方式收取到。所以,一般在正式的項目中的做法是,先檢測socket上是否有數據,有的話就收一下(至於收完不收完,上文已經說了區別),收好之後,在收到的字節中先檢測夠不夠一個包頭大小,不夠下次收數據後再檢測;如果夠的話,再看看夠不夠包頭中指定的包體大小,不夠下次再處理;如果夠的話,則取出一個包的大小,解包並交給上層業務邏輯。註意,這個時候還要繼續檢測是否夠下一個包頭和包體,如此循環下去,直到不夠一個包頭或者包體大小。這種情況很常見,尤其對於那些對端連續發數據包的情況下。

五、nagle算法

nagle算法的是操作系統網絡通信層的一種發送數據包機制,如果開啟,則一次放入網卡緩沖區中的數據(利用send或write等)較小時,可能不會立即發出去,只要當多次send或者write之後,網卡緩沖區中的數據足夠多時,才會一次性被協議棧發送出去,操作系統利用這個算法減少網絡通信次數,提高網絡利用率。對於實時性要求比較高的應用來說,可以禁用nagle算法。這樣send或write的小數據包會立刻發出去。系統默認是開啟的,禁用方法如下:

long noDelay = 1;
setsockopt(m_hSocket, IPPROTO_TCP, TCP_NODELAY,(LPSTR)&noDelay, sizeof(long));

noDelay為1禁用nagle算法,為0啟用nagle算法。

六、select函數的第一個參數問題

select函數的原型是:

int select( _In_ int nfds, _Inout_ fd_set *readfds, _Inout_ fd_set *writefds, _Inout_ fd_set *exceptfds, _In_ const struct timeval *timeout );

使用示例:

fd_set writeset;
FD_ZERO(&writeset);
FD_SET(m_hSocket, &writeset);
struct timeval tv;
tv.tv_sec = 3;
tv.tv_usec = 100;
select(m_hSocket + 1, NULL, &writeset, NULL, &tv);

無論linux還是windows,這個函數都源於Berkeley 套接字。其中readfds、writefds和exceptfds都是一個含有socket描述符句柄數組的結構體。在linux下,第一個參數必須設置成這三個參數中,所有socket描述符句柄中的最大值加1;windows雖然不使用這個參數,卻為了保持與Berkeley 套接字兼容,保留了這個參數,所以windows平臺上這個參數可以填寫任意值。

七、關於bind函數的綁定地址

使用bind函數時,我們需要綁定一個地址。示例如下:

struct sockaddr_in servaddr;
memset(&servaddr, 0, sizeof(servaddr));
servaddr.sin_family = AF_INET;
servaddr.sin_addr.s_addr = inet_addr(ip_.c_str());
servaddr.sin_port = htons(port_);
bind(listenfd_, (sockaddr *)&servaddr, sizeof(servaddr));

這裏的ip地址,我們一般寫0.0.0.0(即windows上的宏INADDR_ANY),或者127.0.0.1。這二者還是有什麽區別?如果是前者,那麽bind會綁定該機器上的任意網卡地址(特別是存在多個網卡地址的情況下),如果是後者,只會綁定本地回環地址127.0.0.1。這樣,使用前者綁定,可以使用connect去連接任意一個本地的網卡地址,而後者只能連接127.0.0.1。舉個例子:

上文中,機器有三個網卡地址,如果使用bind到0.0.0.0上的話,則可以使用192.168.27.19或 192.168.56.1或 192.168.247.1任意地址去connect,如果bind到127.0.0.1,則只能使用127.0.0.1這個地址去connect。

八、關於SO_REUSEADDR和SO_REUSEPORT

使用方法如下:

int on = 1;
setsockopt(listenfd_, SOL_SOCKET, SO_REUSEADDR, (char *)&on, sizeof(on));
setsockopt(listenfd_, SOL_SOCKET, SO_REUSEPORT, (char *)&on, sizeof(on));

這兩個socket選項,一般服務器程序用的特別多,主要是為了解決一個socket被系統回收以後,在一個最大存活期(MSL,大約2分鐘)內,該socket綁定的地址和端口號不能被重復利用的情況。tcp斷開連接時,需要進行四次揮手,為了保證最後一步處於time_wait狀態的socket能收到ACK應答,操作系統將socket的生命周期延長至一個MSL。但是這對於服務器程序來說,尤其是重啟的情況下,由於重啟之後,該地址和端口號不能立刻被使用,導致bind函數調用失敗。所以開發者要不變更地址和端口號,要不等待幾分鐘。這其中任意一個選擇都無法承受的。所以可以設置這個選項來避免這個問題。 但是windows上和linux上實現稍有差別,windows上是一個socket回收後,在MSL期間內,其使用的地址和端口號組合其他進程不可以使用,但本進程可以繼續重復利用;而linux實現是所有進程在MSL期間內都不能使用,包括本進程。

九、心跳包機制

為了維持一個tcp連接的正常,通常一個連接長時間沒有數據來往會被系統的防火墻關閉。這個時候,如果再想通過這個連接發送數據就會出錯,所以需要通過心跳機制來維持。雖然tcp協議棧有自己的keepalive機制,但是,我們應該更多的通過應用層心跳包來維持連接存活。那麽多長時間發一次心跳包合適呢?在我的過往項目經驗中,真是眾說紛紜啊,也因此被坑了不少次。後來,我找到了一種比較科學的時間間隔: 先假設每隔30秒給對端發送一個心跳數據包,這樣需要開啟一個定時器,定時器是每過30秒發送一個心跳數據包。 除了心跳包外,與對端也會有正常的數據來往(非心跳包數據包),那麽記下這些數據的send和recv時刻。也就是說,如果最近的30秒內,發送過或者收到過非心跳包外的數據包,那麽30秒後就不要發心跳包數據。也就是說,心跳包發送一定是在兩端沒有數據來往後的30秒才需要發送。這樣不僅可以減輕服務器的壓力,同時也減少了網絡通信流量,尤其對於流量昂貴的移動設備。 當然,心跳包不僅可以用來維持連接正常,也可以攜帶一些數據,比如定期得到某些數據的最新值,這個時候,上面的方案可能就不太合適了,還是需要每隔30秒發送一次。具體采取哪種,可以根據實際的項目需求來決定。 另外,需要補充一點的時,心跳包一般由客戶端發給服務器端,也就是說客戶端檢測自己是否保持與服務器連接,而不是服務器主動發給客戶端。用程序的術語來講就是調用connect函數的一方發送心跳包,調用listen的一方接收心跳包。 拓展一下,這種思路也可以用於保持與數據庫的連接。比如在30秒內沒有執行數據庫操作後,定期執行一條sql,用以保持連接不斷開,比如一條簡單的sql:select 1 from user;

十、重連機制

在我早些年的軟件開發生涯中,我用connect函數連接一個對端,如果連接不上,那麽我會再次重試,如果還是連接不上,會接著重試。如此一直反復下去,雖然這種重連動作放在一個專門的線程裏面(對於客戶端軟件,千萬不要放在UI線程裏面,不然你的界面將會卡死)。但是如果對端始終連不上,比如因為網絡斷開。這種嘗試其實是毫無意義的,不如不做。其實最合理的重連方式應該是結合下面的兩種方案:

  1. 如果connect連接不上,那麽n秒後再重試,如果還是連接不上2n秒之後再重試,以此類推,4n,8n,16n......

但是上述方案,也存在問題,就是如果當重試間隔時間變的很長,網絡突然暢通了,這個時候,需要很長時間才能連接服務器,這個時候,就應該采取方法2。

  1. 在網絡狀態發生變化時,嘗試重連。比如一款通訊軟件,由於網絡故障現在處於掉線狀態,突然網絡恢復了,這個時候就應該嘗試重連。windows下檢測網絡狀態發生變化的API是IsNetworkAlive。示例代碼如下:
BOOL IUIsNetworkAlive()  
{  
    DWORD   dwFlags;        //上網方式 
    BOOL    bAlive = TRUE;        //是否在線 
    bAlive = ::IsNetworkAlive(&dwFlags);         
    return bAlive;
}

十一、關於錯誤碼EINTR

這個錯誤碼是linux平臺下的。對於很多linux網絡函數,如connect、send、recv、epoll_wait等,當這些函數出錯時,一定要檢測錯誤是不是EINTR,因為如果是這種錯誤,其實只是被信號中斷了,函數調用並沒用出錯,這個時候要麽重試,如send、recv、epoll_wait,要麽利用其他方式檢測完成情況,如利用select檢測connect是否成功。千萬不要草草認定這些調用失敗,而做出錯誤邏輯判斷。

十二、盡量減少系統調用

對於高性能的服務器程序來說,盡量減少系統調用也是一個值得優化的地方。每一次系統調用就意味著一次從用戶空間到內核空間的切換。例如,在libevent網絡庫,在主循環裏面,對於時間的獲取是一次獲取後就立刻緩存下來,以後如果需要這個時間,就取緩存的。但是有人說,在x86機器上gettimeofday不是系統調用,所以libevent沒必要這麽做。有沒有必要,我們借鑒一下這個減少系統調用的思想而已。

十三、忽略linux信號SIGPIPE

SIGPIPE這個信號針對linux平臺的,什麽情況下會產生這個信號呢?當一個偵聽socket被關閉以後,這個時候如果對端向本端發送數據(調用send或write)之後,再次調用send或write向本端發送數據,這個時候,本端該進程將產生SIGPIPE信號,這個信號默認處理是終止進程。但是一般程序尤其是服務器程序肯定不希望要這種默認行為,因為不能因為客戶端給我們亂發數據導致我們自己崩潰退出。所以應該忽略掉這個信號,代碼如下:

signal(SIGPIPE, SIG_IGN);

關於SIGPIPE具體情況可以參考這篇文章:http://blog.csdn.net/lmh12506/article/details/8457772

暫且就整理這麽多吧,歡迎交流,歡迎指出文中錯亂之處。

更新記錄:

zhangyl 於 2017.04.05 增加條款十一。

zhangyl 於 2018.02.01 增加條款三。

技術分享圖片

服務器端編程心得(六)—— 關於網絡編程的一些實用技巧和細節