1. 程式人生 > >6.Python爬蟲入門六之Cookie的使用

6.Python爬蟲入門六之Cookie的使用

expires cookielib spa result hat 即使 card rec 其他

大家好哈,上一節我們研究了一下爬蟲的異常處理問題,那麽接下來我們一起來看一下Cookie的使用。

為什麽要使用Cookie呢?

Cookie,指某些網站為了辨別用戶身份、進行session跟蹤而儲存在用戶本地終端上的數據(通常經過加密)

比如說有些網站需要登錄後才能訪問某個頁面,在登錄之前,你想抓取某個頁面內容是不允許的。那麽我們可以利用Urllib2庫保存我們登錄的Cookie,然後再抓取其他頁面就達到目的了。

在此之前呢,我們必須先介紹一個opener的概念。

1.Opener

當你獲取一個URL你使用一個opener(一個urllib2.OpenerDirector的實例)。在前面,我們都是使用的默認的opener,也就是urlopen。它是一個特殊的opener,可以理解成opener的一個特殊實例,傳入的參數僅僅是url,data,timeout。

如果我們需要用到Cookie,只用這個opener是不能達到目的的,所以我們需要創建更一般的opener來實現對Cookie的設置。

2.Cookielib

cookielib模塊的主要作用是提供可存儲cookie的對象,以便於與urllib2模塊配合使用來訪問Internet資源。Cookielib模塊非常強大,我們可以利用本模塊的CookieJar類的對象來捕獲cookie並在後續連接請求時重新發送,比如可以實現模擬登錄功能。該模塊主要的對象有CookieJar、FileCookieJar、MozillaCookieJar、LWPCookieJar。

它們的關系:CookieJar —-派生—->FileCookieJar —-派生—–>MozillaCookieJar和LWPCookieJar

1)獲取Cookie保存到變量

首先,我們先利用CookieJar對象實現獲取cookie的功能,存儲到變量中,先來感受一下

 1 #聲明一個CookieJar對象實例來保存cookie
 2 cookie = cookielib.CookieJar()
 3 #利用urllib2庫的HTTPCookieProcessor對象來創建cookie處理器
 4 handler = urllib2.HTTPCookieProcessor(cookie)
 5 #通過handler來構建opener
 6 opener = urllib2.build_opener(handler)
 7 #此處的open方法同urllib2的URLopen方法,也可以傳入request中
8 response = opener.open(http://www.baidu.com) 9 for item in cookie: 10 print Name = +item.name 11 print Value = + item.value

我們使用以上方法將cookie保存到變量中,然後打印出了cookie中的值,運行結果如下

技術分享

2)保存Cookie到文件

在上面的方法中,我們將cookie保存到了cookie這個變量中,如果我們想將cookie保存到文件中該怎麽做呢?這時,我們就要用到

FileCookieJar這個對象了,在這裏我們使用它的子類MozillaCookieJar來實現Cookie的保存

 1 import cookielib
 2 import urllib2
 3  
 4 #設置保存cookie的文件,同級目錄下的cookie.txt
 5 filename = cookie.txt
 6 #聲明一個MozillaCookieJar對象實例來保存cookie,之後寫入文件
 7 cookie = cookielib.MozillaCookieJar(filename)
 8 #利用urllib2庫的HTTPCookieProcessor對象來創建cookie處理器
 9 handler = urllib2.HTTPCookieProcessor(cookie)
10 #通過handler來構建opener
11 opener = urllib2.build_opener(handler)
12 #創建一個請求,原理同urllib2的urlopen
13 response = opener.open("http://www.baidu.com")
14 #保存cookie到文件
15 cookie.save(ignore_discard=True, ignore_expires=True)

關於最後save方法的兩個參數在此說明一下:

官方解釋如下:

ignore_discard: save even cookies set to be discarded.

ignore_expires: save even cookies that have expiredThe file is overwritten if it already exists

由此可見,ignore_discard的意思是即使cookies將被丟棄也將它保存下來,ignore_expires的意思是如果在該文件中cookies已經存在,則覆蓋原文件寫入,在這裏,我們將這兩個全部設置為True。運行之後,cookies將被保存到cookie.txt文件中,我們查看一下內容,附圖如下

技術分享

3)從文件中獲取Cookie並訪問

那麽我們已經做到把Cookie保存到文件中了,如果以後想使用,可以利用下面的方法來讀取cookie並訪問網站,感受一下

 1 import cookielib
 2 import urllib2
 3 
 4 #創建MozillaCookieJar實例對象
 5 cookie = cookielib.MozillaCookieJar()
 6 #從文件中讀取cookie內容到變量
 7 cookie.load(cookie.txt, ignore_discard=True, ignore_expires=True)
 8 #創建請求的request
 9 req = urllib2.Request("http://www.baidu.com")
10 #利用urllib2的build_opener方法創建一個opener
11 opener = urllib2.build_opener(urllib2.HTTPCookieProcessor(cookie))
12 response = opener.open(req)
13 print response.read()

設想,如果我們的 cookie.txt 文件中保存的是某個人登錄百度的cookie,那麽我們提取出這個cookie文件內容,就可以用以上方法模擬這個人的賬號登錄百度。

4)利用cookie模擬網站登錄

下面我們以我們學校的教育系統為例,利用cookie實現模擬登錄,並將cookie信息保存到文本文件中,來感受一下cookie大法吧!

註意:密碼我改了啊,別偷偷登錄本宮的選課系統 o(╯□╰)o

 1 import urllib2
 2 import cookielib
 3  
 4 filename = cookie.txt
 5 #聲明一個MozillaCookieJar對象實例來保存cookie,之後寫入文件
 6 cookie = cookielib.MozillaCookieJar(filename)
 7 opener = urllib2.build_opener(urllib2.HTTPCookieProcessor(cookie))
 8 postdata = urllib.urlencode({
 9             stuid:201200131012,
10             pwd:23342321
11         })
12 #登錄教務系統的URL
13 loginUrl = http://jwxt.sdu.edu.cn:7890/pls/wwwbks/bks_login2.login
14 #模擬登錄,並把cookie保存到變量
15 result = opener.open(loginUrl,postdata)
16 #保存cookie到cookie.txt中
17 cookie.save(ignore_discard=True, ignore_expires=True)
18 #利用cookie請求訪問另一個網址,此網址是成績查詢網址
19 gradeUrl = http://jwxt.sdu.edu.cn:7890/pls/wwwbks/bkscjcx.curscopre
20 #請求訪問成績查詢網址
21 result = opener.open(gradeUrl)
22 print result.read()

以上程序的原理如下

創建一個帶有cookie的opener,在訪問登錄的URL時,將登錄後的cookie保存下來,然後利用這個cookie來訪問其他網址。

如登錄之後才能查看的成績查詢呀,本學期課表呀等等網址,模擬登錄就這麽實現啦,是不是很酷炫?

好,小夥伴們要加油哦!我們現在可以順利獲取網站信息了,接下來就是把網站裏面有效內容提取出來,下一節我們去會會正則表達式!

6.Python爬蟲入門六之Cookie的使用