1. 程式人生 > >搜尋引擎抓去網站內容的工作原理簡單介紹

搜尋引擎抓去網站內容的工作原理簡單介紹

今天鄭州SEO簡單介紹一下關於搜尋引擎抓取系統中有關抓取系統基本框架、抓取中涉及的網路協議、抓取的基本過程三部分。

網際網路資訊爆發式增長,如何有效的獲取並利用這些資訊是搜尋引擎工作中的首要環節。資料抓取系統作為整個搜尋系統中的上游,主要負責網際網路資訊的蒐集、儲存、更新環節,它像蜘蛛一樣在網路間爬來爬去,因此通常會被叫做“spider”。例如我們常用的幾家通用搜索引擎蜘蛛被叫做:Baiduspdier、Googlebot、Sogou Web Spider等。

Spider抓取系統是搜尋引擎資料來源的重要保證,如果把web理解為一個有向圖,那麼spider的工作過程可以認為是對這個有向圖的遍歷。從一些重要的種子 URL開始,通過頁面上的超連結關係,不斷的發現新URL並抓取,盡最大可能抓取到更多的有價值網頁。對於類似百度這樣的大型spider系統,因為每時 每刻都存在網頁被修改、刪除或出現新的超連結的可能,因此,還要對spider過去抓取過的頁面保持更新,維護一個URL庫和頁面庫。

1、spider抓取系統的基本框架

如下為spider抓取系統的基本框架圖,其中包括連結儲存系統、連結選取系統、dns解析服務系統、抓取排程系統、網頁分析系統、連結提取系統、連結分析系統、網頁儲存系統。

 
spider抓去系統的基本框架

 2、spider抓取過程中涉及的網路協議

搜尋引擎與資源提供者之間存在相互依賴的關係,其中搜索引擎需要站長為其提供資源,否則搜尋引擎就無法滿足使用者檢索需求;而站長需要通過搜尋引擎將自己的 內容推廣出去獲取更多的受眾。spider抓取系統直接涉及網際網路資源提供者的利益,為了使搜素引擎與站長能夠達到雙贏,在抓取過程中雙方必須遵守一定的 規範,以便於雙方的資料處理及對接。這種過程中遵守的規範也就是日常中我們所說的一些網路協議。以下簡單列舉:

http協議:超文字傳輸協議,是網際網路上應用最為廣泛的一種網路協議,客戶端和伺服器端請求和應答的標準。客戶端一般情況是指終端使用者,伺服器端即指網 站。終端使用者通過瀏覽器、蜘蛛等向伺服器指定埠傳送http請求。傳送http請求會返回對應的httpheader資訊,可以看到包括是否成功、服務 器型別、網頁最近更新時間等內容。

https協議:實際是加密版http,一種更加安全的資料傳輸協議。

UA屬性:UA即user-agent,是http協議中的一個屬性,代表了終端的身份,向伺服器端表明我是誰來幹嘛,進而伺服器端可以根據不同的身份來做出不同的反饋結果。

robots協議:robots.txt是搜尋引擎訪問一個網站時要訪問的第一個檔案,用以來確定哪些是被允許抓取的哪些是被禁止抓取的。 robots.txt必須放在網站根目錄下,且檔名要小寫。詳細的robots.txt寫法可參考 

【鄭州SEO講解robots.txt的寫法】 。百度嚴格按照robots協議執行,另外,同樣支援網頁內容中新增的名為robots的meta標 籤,index、follow、nofollow等指令 。

 3、spider抓取的基本過程

spider的基本抓取過程可以理解為如下的流程圖:

spider抓取的基本過程