1. 程式人生 > >如何利用Python爬蟲從網頁上批量獲取想要的資訊?

如何利用Python爬蟲從網頁上批量獲取想要的資訊?

  稍微說一下背景,當時我想研究蛋白質與小分子的複合物在空間三維結構上的一些規律,首先得有資料啊,資料從哪裡來?就是從一個涵蓋所有已經解析三維結構的蛋白質-小分子複合物的資料庫裡面下載。這時候,手動一個個去下顯然是不可取的,我們需要寫個指令碼,能從特定的網站選擇性得批量下載需要的資訊。python是不錯的選擇。 

import urllib    #python中用於獲取網站的模組

import urllib2, cookielib 

有些網站訪問時需要cookie的,python處理cookie程式碼如下:

cj = cookielib.CookieJar ( )

opener =  urllib2.build_opener( urllib2.HttpCookieProcessor(cj) )

urllib2.install_opener (opener) 

通常我們需要在網站中搜索得到我們需要的資訊,這裡分為二種情況: 

1. 第一種,直接改變網址就可以得到你想要搜尋的頁面: 

def GetWebPage( x ):  #我們定義一個獲取頁面的函式,x 是用於呈遞你在頁面中搜索的內容的引數

      page = urllib2.urlopen(url)

      pageContent = page.read( )

      return pageContent                #返回的是HTML格式的頁面資訊

2.第二種,你需要用到post方法,將你搜索的內容放在postdata裡面,然後返回你需要的頁面  

def GetWebPage( x ):  #我們定義一個獲取頁面的函式,x 是用於呈遞你在頁面中搜索的內容的引數

     url =  'http://xxxxx/xxx'    #這個網址是你進入搜尋介面的網址

     postData = urllib.urlencode( {  各種‘post’引數輸入 } )   #這裡面的post引數輸入需要自己去查

     req= urllib2.Request (url, postData)

     pageContent = urllib2.urlopen (req). read( )

     return pageContent                #返回的是HTML格式的頁面資訊

 在獲取了我們需要的網頁資訊之後,我們需要從獲得的網頁中進一步獲取我們需要的資訊,這裡我推薦使用 BeautifulSoup 這個模組, python自帶的沒有,可以自行百度谷歌下載安裝。 BeautifulSoup 翻譯就是‘美味的湯’,你需要做的是從一鍋湯裡面找到你喜歡吃的東西。 

import re  # 正則表示式,用於匹配字元

from bs4 import BeautifulSoup  # 匯入BeautifulSoup 模組 

soup =  BeautifulSoup(pageContent)  #pageContent就是上面我們搜尋得到的頁面 

soup就是 HTML 中所有的標籤(tag)BeautifulSoup處理格式化後的字串,一個標準的tag形式為: 

hwkobe24 

通過一些過濾方法,我們可以從soup中獲取我們需要的資訊: 

1) find_all ( name , attrs , recursive , text , **kwargs)

  這裡面,我們通過新增對標籤的約束來獲取需要的標籤列表, 比如 soup.find_all ('p') 就是尋找名字為‘p’的 標籤,而soup.find_all (class = "tittle") 就是找到所有class屬性為"tittle" 的標籤,以及soup.find_all ( class = re.compile('lass')) 表示 class屬性中包含‘lass’的所有標籤,這裡用到了正則表示式(可以自己學習一下,非常有用滴) 

當我們獲取了所有想要標籤的列表之後,遍歷這個列表,再獲取標籤中你需要的內容,通常我們需要標籤中的文字部分,也就是網頁中顯示出來的文字,程式碼如下: 

   tagList = soup.find_all (class="tittle")   #如果標籤比較複雜,可以用多個過濾條件使過濾更加嚴格 

   for tag in tagList:

         print tag.text

         f.write ( str(tag.text) )  #將這些資訊寫入本地檔案中以後使用 

2)find( name , attrs , recursive , text , **kwargs ) 

       它與 find_all( ) 方法唯一的區別是 find_all() 方法的返回結果是值包含一個元素的列表,而 find() 方法直接返回結果 

3)find_parents( )  find_parent( ) 

    find_all() 和 find() 只搜尋當前節點的所有子節點,孫子節點等. 

find_parents() 和 find_parent() 用來搜尋當前節點的父輩節點,搜尋方法與普通tag的搜尋方法相同,搜尋文件搜尋文件包含的內容 

4)find_next_siblings()  find_next_sibling() 

      這2個方法通過 .next_siblings 屬性對當 tag 的所有後面解析的兄弟 tag 節點進代, find_next_siblings() 方法返回所有符合條件的後面的兄弟節點,find_next_sibling() 只返回符合條件的後面的第一個tag節點 

5)find_previous_siblings()  find_previous_sibling() 

     這2個方法通過 .previous_siblings 屬性對當前 tag 的前面解析的兄弟 tag 節點進行迭代, find_previous_siblings()方法返回所有符合條件的前面的兄弟節點, find_previous_sibling() 方法返回第一個符合條件的前面的兄弟節點 

6)find_all_next()  find_next() 

     這2個方法通過 .next_elements 屬性對當前 tag 的之後的 tag 和字串進行迭代, find_all_next() 方法返回所有符合條件的節點, find_next() 方法返回第一個符合條件的節點 

7)find_all_previous() 和 find_previous()     

      這2個方法通過 .previous_elements 屬性對當前節點前面的 tag 和字串進行迭代, find_all_previous() 方法返回所有符合條件的節點, find_previous()方法返回第一個符合條件的節點。