1. 程式人生 > >Python爬蟲模擬登錄帶驗證碼網站

Python爬蟲模擬登錄帶驗證碼網站

請求 handle 簡單的 hand win ron secret apple cookielib

問題分析:

1、爬取網站時經常會遇到需要登錄的問題,這是就需要用到模擬登錄的相關方法。python提供了強大的url庫,想做到這個並不難。這裏以登錄學校教務系統為例,做一個簡單的例子。

2、首先得明白cookie的作用,cookie是某些網站為了辨別用戶身份、進行session跟蹤而儲存在用戶本地終端上的數據。因此我們需要用Cookielib模塊來保持網站的cookie。

3、這個是要登陸的地址 http://202.115.80.153/ 和驗證碼地址 http://202.115.80.153/CheckCode.aspx

4、可以發現這個驗證碼是動態更新的每次打開都不一樣,一般這種驗證碼和cookie是同步的。其次想識別驗證碼肯定是吃力不討好的事,因此我們的思路是首先訪問驗證碼頁面,保存驗證碼、獲取cookie用於登錄,然後再直接向登錄地址post數據。

5、首先通過抓包工具或者火狐或者谷歌瀏覽器分析登錄頁面需要post的request和header信息。以谷歌瀏覽器為例。

技術分享

技術分享

從中可以看出需要post的url並不是訪問的頁面,而是http://202.115.80.153/default2.aspx,

其中需要提交的表單數據中txtUserName和TextBox2分別用戶名和密碼。

現在直接到關鍵部分 上代碼!!

 1 import urllib2
 2 import cookielib
 3 import urllib
 4 import re
 5 import sys
 6 ‘‘‘模擬登錄‘‘‘
 7 reload(sys)
 8 sys.setdefaultencoding("
utf-8") 9 # 防止中文報錯 10 CaptchaUrl = "http://202.115.80.153/CheckCode.aspx" 11 PostUrl = "http://202.115.80.153/default2.aspx" 12 # 驗證碼地址和post地址 13 cookie = cookielib.CookieJar() 14 handler = urllib2.HTTPCookieProcessor(cookie) 15 opener = urllib2.build_opener(handler) 16 # 將cookies綁定到一個opener cookie由cookielib自動管理
17 username = username 18 password = password123 19 # 用戶名和密碼 20 picture = opener.open(CaptchaUrl).read() 21 # 用openr訪問驗證碼地址,獲取cookie 22 local = open(e:/image.jpg, wb) 23 local.write(picture) 24 local.close() 25 # 保存驗證碼到本地 26 SecretCode = raw_input(輸入驗證碼: ) 27 # 打開保存的驗證碼圖片 輸入 28 postData = { 29 __VIEWSTATE: dDwyODE2NTM0OTg7Oz6pH0TWZk5t0lupp/tlA1L+rmL83g==, 30 txtUserName: username, 31 TextBox2: password, 32 txtSecretCode: SecretCode, 33 RadioButtonList1: 學生, 34 Button1: ‘‘, 35 lbLanguage: ‘‘, 36 hidPdrs: ‘‘, 37 hidsc: ‘‘, 38 } 39 # 根據抓包信息 構造表單 40 headers = { 41 Accept: text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,*/*;q=0.8, 42 Accept-Language: zh-CN,zh;q=0.8, 43 Connection: keep-alive, 44 Content-Type: application/x-www-form-urlencoded, 45 User-Agent: Mozilla/5.0 (Windows NT 6.1) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/46.0.2490.86 Safari/537.36, 46 } 47 # 根據抓包信息 構造headers 48 data = urllib.urlencode(postData) 49 # 生成post數據 ?key1=value1&key2=value2的形式 50 request = urllib2.Request(PostUrl, data, headers) 51 # 構造request請求 52 try: 53 response = opener.open(request) 54 result = response.read().decode(gb2312) 55 # 由於該網頁是gb2312的編碼,所以需要解碼 56 print result 57 # 打印登錄後的頁面 58 except urllib2.HTTPError, e: 59 print e.code 60 # 利用之前存有cookie的opener登錄頁面

登錄成功後便可以利用該openr訪問其他需要登錄才能訪問的頁面。

Python爬蟲模擬登錄帶驗證碼網站