1. 程式人生 > >爬蟲協議robots

爬蟲協議robots

con clu 爬蟲 log 是否 訪問 網絡爬蟲 type 介紹

前面的話

  Robots協議(也稱為爬蟲協議、機器人協議等)全稱是“網絡爬蟲排除標準”(Robots Exclusion Protocol),網站通過Robots協議告訴搜索引擎哪些頁面可以抓取,哪些頁面不能抓取。本文將詳細介紹爬蟲協議robots

概述

  robots.txt文件是一個文本文件,是搜索引擎中訪問網站的時候要查看的第一個文件。robots.txt文件告訴蜘蛛程序在服務器上什麽文件是可以被查看的

  當一個搜索蜘蛛訪問一個站點時,它會首先檢查該站點根目錄下是否存在robots.txt,如果存在,搜索機器人就會按照該文件中的內容來確定訪問的範圍;如果該文件不存在,所有的搜索蜘蛛將能夠訪問網站上所有沒有被口令保護的頁面

【原則】

  Robots協議是國際互聯網界通行的道德規範,基於以下原則建立:

  1、搜索技術應服務於人類,同時尊重信息提供者的意願,並維護其隱私權;

  2、網站有義務保護其使用者的個人信息和隱私不被侵犯

  [註意]robots.txt必須放置在一個站點的根目錄下,而且文件名必須全部小寫

寫法

【User-agent】

  下面代碼中*代表的所有的搜索引擎種類,*是一個通配符,表示所有的搜索機器人

User-agent: * 

  下面代碼表示百度的搜索機器人

User-agent: Baiduspider

【Disallow】

  下面代碼表示禁止爬尋admin目錄下面的目錄

Disallow: /admin/

  下面代碼表示禁止抓取網頁所有的.jpg格式的圖片

Disallow: /.jpg$

  下面代碼表示禁止爬取ab文件夾下面的adc.html文件

Disallow:/ab/adc.html 

  下面代碼表示禁止訪問網站中所有包含問號 (?) 的網址

Disallow: /*?* 

  下面代碼表示禁止訪問網站中所有頁面

Disallow: /

【Allow】

  下面代碼表示允許訪問以".html"為後綴的URL

Allow: .html$

  下面代碼表示允許爬尋tmp的整個目錄

Allow: /tmp

用法

  下面代碼表示允許所有的robot訪問網站所有的頁面

User-agent: *
Allow: /

  下面代碼表示禁止所有搜索引擎訪問網站的任何部分

User-agent: *
Disallow: /

  下面代碼表示禁止百度的機器人訪問其網站下其所有的目錄

User-agent: Baiduspider
Disallow: /

  下面代碼表示禁止所有搜索引擎訪問網站的cgi-bin、tmp、~joe這三個目錄下的文件

User-agent: *
Disallow: /cgi-bin/
Disallow: /tmp/
Disallow: /~joe/

誤區

  【誤區一】:網站上的所有文件都需要蜘蛛抓取,那就沒必要在添加robots.txt文件了。反正如果該文件不存在,所有的搜索蜘蛛將默認能夠訪問網站上所有沒有被口令保護的頁面

  每當用戶試圖訪問某個不存在的URL時,服務器都會在日誌中記錄404錯誤(無法找到文件)。每當搜索蜘蛛來尋找並不存在的robots.txt文件時,服務器也將在日誌中記錄一條404錯誤,所以應該在網站中添加一個robots.txt

  【誤區二】:在robots.txt文件中設置所有的文件都可以被搜索蜘蛛抓取,這樣可以增加網站的收錄率

  網站中的程序腳本、樣式表等文件即使被蜘蛛收錄,也不會增加網站的收錄率,還只會浪費服務器資源。因此必須在robots.txt文件裏設置不要讓搜索蜘蛛索引這些文件

爬蟲協議robots