1. 程式人生 > >python網路爬蟲(一)

python網路爬蟲(一)

網路爬蟲之前奏

在這裡插入圖片描述
網路爬蟲之規則

Requests庫入門


requests庫的安裝

requests的詳細資訊

  • Win平臺: “以管理員身份執行” cmd,執行pip3 install requests

requests庫安裝成功與否的測試

  • 按照以下程式碼在python互動模式下依次執行得到正確的結果就證明安裝成功了。
>>> import requests
>>> r = requests.get("https://www.baidu.com")
>>> r.status_code
200
>>> r.encoding
'ISO-8859-1'
>>> r.apparent_encoding
'utf-8'
>>> r.encoding = 'utf-8'
>>> r.text
'<!DOCTYPE html>\r\n<!--STATUS OK--><html> <head><meta http-equiv=content-type content=text/html;charset=utf-8><meta http-equiv=X-UA-Compatible content=IE=Edge><meta content=always name=referrer><link rel=stylesheet type=text/css href=https://ss1.bdstatic.com/5eN1bjq8AAUYm2zgoY3K/r/www/cache/bdorz/baidu.min.css><title>百度一下,你就知道</title></head> <body link=#0000cc> <div id=wrapper> <div id=head> <div class=head_wrapper> <div class=s_form> <div class=s_form_wrapper> <div id=lg> <img hidefocus=true src=//www.baidu.com/img/bd_logo1.png width=270 height=129> </div> <form id=form name=f action=//www.baidu.com/s class=fm> <input type=hidden name=bdorz_come value=1> <input type=hidden name=ie value=utf-8> <input type=hidden name=f value=8> <input type=hidden name=rsv_bp value=1> <input type=hidden name=rsv_idx value=1> <input type=hidden name=tn value=baidu><span class="bg s_ipt_wr"><input id=kw name=wd class=s_ipt value maxlength=255 autocomplete=off autofocus=autofocus></span><span class="bg s_btn_wr"><input type=submit id=su value=百度一下 class="bg s_btn" autofocus></span> </form> </div> </div> <div id=u1> <a href=http://news.baidu.com name=tj_trnews class=mnav>新聞</a> <a href=https://www.hao123.com name=tj_trhao123 class=mnav>hao123</a> <a href=http://map.baidu.com name=tj_trmap class=mnav>地圖</a> <a href=http://v.baidu.com name=tj_trvideo class=mnav>視訊</a> <a href=http://tieba.baidu.com name=tj_trtieba class=mnav>貼吧</a> <noscript> <a href=http://www.baidu.com/bdorz/login.gif?login&amp;tpl=mn&amp;u=http%3A%2F%2Fwww.baidu.com%2f%3fbdorz_come%3d1 name=tj_login class=lb>登入</a> </noscript> <script>document.write(\'<a href="http://www.baidu.com/bdorz/login.gif?login&tpl=mn&u=\'+ encodeURIComponent(window.location.href+ (window.location.search === "" ? "?" : "&")+ "bdorz_come=1")+ \'" name="tj_login" class="lb">登入</a>\');\r\n                </script> <a href=//www.baidu.com/more/ name=tj_briicon class=bri style="display: block;">更多產品</a> </div> </div> </div> <div id=ftCon> <div id=ftConw> <p id=lh> <a href=http://home.baidu.com>關於百度</a> <a href=http://ir.baidu.com>About Baidu</a> </p> <p id=cp>&copy;2017&nbsp;Baidu&nbsp;<a href=http://www.baidu.com/duty/>使用百度前必讀</a>&nbsp; <a href=http://jianyi.baidu.com/ class=cp-feedback>意見反饋</a>&nbsp;京ICP證030173號&nbsp; <img src=//www.baidu.com/img/gs.gif> </p> </div> </div> </div> </body> </html>\r\n'

requests庫的七個主要方法

  • requests.request()

    • 構造一個請求,支撐以下各方法的基礎方法。
  • requests.get()

    • 獲取HTML網頁的主要方法,對應於HTTP的GET。
  • requests.head()

    • 獲取HTML網頁頭資訊的方法,對應於HTTP的HEAD。
  • requests.post()

    • 向HTML網頁提交POST請求的方法,對應於HTTP的POST。
  • requests.put()

    • 向HTML網頁提交PUT請求的方法,對應於HTTP的PUT。
  • requests.patch()

    • 向HTML網頁提交區域性修改請求,對應於HTTP的PATCH。
  • requests.delete()

    • 向HTML頁面提交刪除請求,對應於HTTP的DELETE。

Requests庫的get()方法

在這裡插入圖片描述

  • requests.get(url, params=None, **kwargs)

    • url : 擬獲取頁面的url連結
    • params : url中的額外引數,字典或位元組流格式,可選
    • **kwargs: 12個控制訪問的引數。
  • Response物件

    • Response物件包含爬蟲返回的內容。

    • Response物件包含伺服器返回的所有資訊,也包含請求的Request資訊

      >>> import requests
      >>> r = requests.get("https://www.baidu.com")
      >>> print(r.status_code)
      200
      >>> type(r)
      <class 'requests.models.Response'>
      >>> r.headers
      {'Cache-Control': 'private, no-cache, no-store, proxy-revalidate, no-transform', 'Connection':  'Keep-Alive', 'Content-Encoding': 'gzip', 'Content-Type': 'text/html', 'Date': 'Tue, 30 Oct 2018 08:36:21 GMT', 'Last-Modified': 'Mon, 23 Jan 2017 13:24:46 GMT', 'Pragma': 'no-cache', 'Server': 'bfe/1.0.8.18', 'Set-Cookie': 'BDORZ=27315; max-age=86400; domain=.baidu.com; path=/', 'Transfer-Encoding': 'chunked'}
      
  • Response物件的屬性

    • r.status_code
      • HTTP請求的返回狀態,200表示連線成功,404表示失敗
    • r.text
      • HTTP響應內容的字串形式,即,url對應的頁面內容
    • r.encoding
      • 從HTTP header中猜測的響應內容編碼方式
      • 如果header中不存在charset,則認為編碼為ISO‐8859‐1。
      • r.text根據r.encoding顯示網頁內容。
    • r.apparent_encoding
      • 從內容中分析出的響應內容編碼方式(備選編碼方式)
      • 根據網頁內容分析出的編碼方式可以看作是r.encoding的備選。
    • r.content
      • HTTP響應內容的二進位制形式。

爬取網頁的通用程式碼框架

  • Requests庫的異常

    • requests.ConnectionError
      • 網路連線錯誤異常,如DNS查詢失敗、拒絕連線等。
    • requests.HTTPError
      • HTTP錯誤異常。
    • requests.URLRequired
      • URL缺失異常。
    • requests.TooManyRedirects
      • 超過最大重定向次數,產生重定向異常。
    • requests.ConnectTimeout
      • 連線遠端伺服器超時異常。
    • requests.Timeout
      • 請求URL超時,產生超時異常。
  • r.raise_for_status()方法

    • 如果不是200,產生異常 requests.HTTPError
    • r.raise_for_status()在方法內部判斷r.status_code是否等於200,不需要增加額外的if語句,該語句便於利用try‐except進行異常處理
  • 通用程式碼框架

import requests

def getHTMLText(url):
    try:
        r = requests.get(url, timeout = 30)
        r.raise_for_status()    # 如果狀態不是200,引發HTTPError異常
        r.encoding = r.apparent_encoding
        return r.text
    except:
        return "產生異常"

if __name__ == "__main__":
    url = "http://www.baidu.com"
    print(getHTMLText(url))