1. 程式人生 > >一個簡單c#爬蟲程序

一個簡單c#爬蟲程序

count www 數據 排名 其他瀏覽器 pytho 分享 很多 attr


這篇文章只是簡單展示一個基於HTTP請求如何抓取數據的文章,如覺得簡單的朋友,後續我們再慢慢深入研究探討。

1

技術分享圖片

如圖1,我們工作過程中,無論平臺網站還是企業官網,總少不了新聞展示。如某天產品經理跟我們說,推廣人員想要抓取百度新聞中熱點要聞版塊提高站點百度排名。要抓取百度的熱點要聞版本,首先我們先要了解站點https://news.baidu.com/請求頭(Request headers信息。

為什麽要了解請求頭(Request headers)信息?

原因是我們可以根據請求頭信息某部分報文信息偽裝這是一個正常HTTP請求而不是人為爬蟲程序躲過反爬人員封殺,從而成功獲取響應數據(

Response data

如何查看百度新聞網址請求頭信息?

2

技術分享圖片

如圖2,我們可以打開谷歌瀏覽器或者其他瀏覽器查看該站點請求頭報文信息。從圖中可以了解到該百度新聞站點可以接受text/html等數據類型;語言是中文;瀏覽器版本是Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/66.0.3359.181 Safari/537.36等等報文信息,在我們發起一個HTTP請求的時候直接攜帶該報文信息過去。當然並不是每個報文信息參數都必須攜帶過去,攜帶一部分能夠請求成功即可。

那什麽是響應數據(Response data)?

3

技術分享圖片

如圖3,響應數據(Response data)是可以從谷歌瀏覽器或者其他瀏覽器中查看到的,響應可以是json數據,可以是DOM樹數據,方便我們後續解析數據。

當然您可以學習任意一門開發語言開發爬蟲程序:C#NodeJsPythonJavaC++

但這裏主要講述是C#開發爬蟲程序。微軟為我們提供兩個關於HTTP請求HttpWebRequestHttpWebResponse對象,方便我們發送請求獲取數據。以下展示下C# HTTP請求代碼:

技術分享圖片
        private SimpleCrawlResult RequestAction()
        {
            SimpleCrawlResult _simpleCrawlResult 
= new SimpleCrawlResult(); IWebProxy proxy = GetProxy(options.ProxyTypeEnum); var request = (HttpWebRequest)WebRequest.Create(options.Uri); request.Accept = options.Accept; //在使用curl做POST的時候, 當要POST的數據大於1024字節的時候, curl並不會直接就發起POST請求, 而是會分為倆步, //發送一個請求, 包含一個Expect: 100 -continue, 詢問Server使用願意接受數據 //接收到Server返回的100 - continue應答以後, 才把數據POST給Server //並不是所有的Server都會正確應答100 -continue, 比如lighttpd, 就會返回417 “Expectation Failed”, 則會造成邏輯出錯. request.ServicePoint.Expect100Continue = false; request.ServicePoint.UseNagleAlgorithm = false;//禁止Nagle算法加快載入速度 if (!string.IsNullOrEmpty(options.XHRParams)) { request.AllowWriteStreamBuffering = true; } else { request.AllowWriteStreamBuffering = false; }; //禁止緩沖加快載入速度 request.Headers.Add(HttpRequestHeader.AcceptEncoding, "gzip,deflate");//定義gzip壓縮頁面支持 request.ContentType = options.ContentType;//定義文檔類型及編碼 request.AllowAutoRedirect = options.AllowAutoRedirect;//禁止自動跳轉 request.UserAgent = UserAgentHelper.GetUserAgent;//設置User-Agent,偽裝成Google Chrome瀏覽器 request.Timeout = options.Timeout;//定義請求超時時間為5秒 request.KeepAlive = options.KeepAlive;//啟用長連接 if (!string.IsNullOrEmpty(options.Referer)) request.Referer = options.Referer;//返回上一級歷史鏈接 request.Method = options.Method.ToString();//定義請求方式為GET if (proxy != null) request.Proxy = proxy;//設置代理服務器IP,偽裝請求地址 if (!string.IsNullOrEmpty(options.RequestCookies)) request.Headers[HttpRequestHeader.Cookie] = options.RequestCookies; request.ServicePoint.ConnectionLimit = options.ConnectionLimit;//定義最大連接數 if (options.WebHeader != null && options.WebHeader.Count > 0) request.Headers.Add(options.WebHeader);//添加頭部信息 if (!string.IsNullOrEmpty(options.XHRParams))//如果是POST請求,加入POST數據 { byte[] buffer = Encoding.UTF8.GetBytes(options.XHRParams); if (buffer != null) { request.ContentLength = buffer.Length; request.GetRequestStream().Write(buffer, 0, buffer.Length); } } using (var response = (HttpWebResponse)request.GetResponse()) { ////獲取請求響應 //foreach (Cookie cookie in response.Cookies) // options.CookiesContainer.Add(cookie);//將Cookie加入容器,保存登錄狀態 if (response.ContentEncoding.ToLower().Contains("gzip"))//解壓 { using (GZipStream stream = new GZipStream(response.GetResponseStream(), CompressionMode.Decompress)) { using (StreamReader reader = new StreamReader(stream, Encoding.UTF8)) { _simpleCrawlResult.Contents = reader.ReadToEnd(); } } } else if (response.ContentEncoding.ToLower().Contains("deflate"))//解壓 { using (DeflateStream stream = new DeflateStream(response.GetResponseStream(), CompressionMode.Decompress)) { using (StreamReader reader = new StreamReader(stream, Encoding.UTF8)) { _simpleCrawlResult.Contents = reader.ReadToEnd(); } } } else { using (Stream stream = response.GetResponseStream())//原始 { using (StreamReader reader = new StreamReader(stream, Encoding.UTF8)) { _simpleCrawlResult.Contents = reader.ReadToEnd(); } } } } _simpleCrawlResult.HttpRequest = request; request.Abort(); }
View Code

根據展示的代碼,我們可以發現HttpWebRequest對象裏面都封裝了很多Request headers報文參數,我們可以根據該網站的Request headers信息在微軟提供的HttpWebRequest對象裏設置(看代碼報文參數註釋,都有寫相關參數說明,如果理解錯誤,望告之,謝謝),然後發送請求獲取Response data解析數據

還有補充一點,爬蟲程序能夠使用代理IP最好使用代理IP,這樣降低被封殺機率,提高抓取效率。但是代理IP也分質量等級,對於某一些HTTPS站點,可能對應需要質量等級更加好的代理IP才能穿透,這裏暫不跑題,後續我會寫一篇關於代理IP質量等級文章詳說我的見解。

C#代碼如何使用代理IP

微軟NET框架也為了我們提供一個使用代理IP System.Net.WebProxy對象,關於使用代碼如下:

技術分享圖片
        private System.Net.WebProxy GetProxy(ProxyType type)
        {
            System.Net.WebProxy webProxy = null;
            try
            {
                // 代理鏈接地址加端口
                string proxyHost = "192.168.1.1";
                string proxyPort = "9030";

                // 代理身份驗證的帳號跟密碼
                //string proxyUser = "xxx";
                //string proxyPass = "xxx";

                // 設置代理服務器
                webProxy = new System.Net.WebProxy();
                // 設置代理地址加端口
                webProxy.Address = new Uri(string.Format("{0}:{1}", proxyHost, proxyPort));
                // 如果只是設置代理IP加端口,例如192.168.1.1:80,這裏直接註釋該段代碼,則不需要設置提交給代理服務器進行身份驗證的帳號跟密碼。
                //webProxy.Credentials = new System.Net.NetworkCredential(proxyUser, proxyPass);
            }
            catch (Exception ex)
            {
                LogHelper.WriteLine(typeof(Requester), 0, "獲取代理信息異常", DateTime.Now.ToString(), type.ToString(), ex.Message);
            }
            return webProxy;
        }
View Code

關於 System.Net.WebProxy對象參數說明,我在代碼裏面也做了解釋。

如果獲取到Response data數據是json,xml等格式數據,這類型解析數據方法我們這裏就不詳細說了,請自行百度。這裏主要講的是DOMHTML數據解析,對於這類型數據有人會用正則表達式來解析,也有人用組件。當然只要能獲取到自己想要數據,怎麽解析都是可以。這裏主要講我經常用到解析組件 HtmlAgilityPack。解析代碼如下:

技術分享圖片
                HtmlDocument htmlDoc = new HtmlDocument();
                htmlDoc.LoadHtml(simpleCrawlResult.Contents);
                HtmlNodeCollection liNodes = htmlDoc.DocumentNode.SelectSingleNode("//div[@id=‘pane-news‘]").SelectSingleNode("div[1]/ul[1]").SelectNodes("li");
                if (liNodes != null && liNodes.Count > 0)
                {
                    for (int i = 0; i < liNodes.Count; i++)
                    {
                        string title = liNodes[i].SelectSingleNode("strong[1]/a[1]").InnerText.Trim();
                        string href = liNodes[i].SelectSingleNode("strong[1]/a[1]").GetAttributeValue("href", "").Trim();
                        Console.WriteLine("新聞標題:" + title + ",鏈接:" + href);
                    }
                }
View Code

另外附上HtmlAgilityPack學習鏈接 http://www.cnblogs.com/asxinyu/p/CSharp_HtmlAgilityPack_XPath_Weather_Data.html

下面主要展示抓取結果。

4

技術分享圖片

如圖4,抓取效果,一個簡單爬蟲程序就這樣子完成了。。。(這裏只是小弟不才個人見解,如有錯誤,望各位大牛多多指教)

一個簡單c#爬蟲程序