1. 程式人生 > >Python 爬蟲 2 (轉)

Python 爬蟲 2 (轉)

規範 return python 爬蟲 直接 htm str 保存 urn find

一,獲取整個頁面數據

首先我們可以先獲取要下載圖片的整個頁面信息。

getjpg.py

#coding=utf-8
import urllib

def getHtml(url):
    page = urllib.urlopen(url)
    html = page.read()
    return html

html = getHtml("http://tieba.baidu.com/p/2738151262")

print html

Urllib 模塊提供了讀取web頁面數據的接口,我們可以像讀取本地文件一樣讀取www和ftp上的數據。首先,我們定義了一個getHtml()函數:

  urllib.urlopen()方法用於打開一個URL地址。

  read()方法用於讀取URL上的數據,向getHtml()函數傳遞一個網址,並把整個頁面下載下來。執行程序就會把整個網頁打印輸出。

二,篩選頁面中想要的數據

Python 提供了非常強大的正則表達式

找到了圖片的地址,如:src=”http://imgsrc.baidu.com/forum......jpg”pic_ext=”jpeg”

import re
import urllib

def getHtml(url):
    page = urllib.urlopen(url)
    html = page.read()
    return html

def getImg(html):
    reg = r‘src="(.+?\.jpg)" pic_ext‘
    imgre = re.compile(reg)
    imglist = re.findall(imgre,html)
    return imglist      
   
html = getHtml("http://tieba.baidu.com/p/2460150866")
print getImg(html)

我們又創建了getImg()函數,用於在獲取的整個頁面中篩選需要的圖片連接。re模塊主要包含了正則表達式:

  re.compile() 可以把正則表達式編譯成一個正則表達式對象.

  re.findall() 方法讀取html 中包含 imgre(正則表達式)的數據。

   運行腳本將得到整個頁面中包含圖片的URL地址。

三,將頁面篩選的數據保存到本地

把篩選的圖片地址通過for循環遍歷並保存到本地,代碼如下:

#coding=utf-8
import urllib
import re

def getHtml(url):
    page = urllib.urlopen(url)
    html = page.read()
    return html

def getImg(html):
    reg = r‘src="(.+?\.jpg)" pic_ext‘
    imgre = re.compile(reg)
    imglist = re.findall(imgre,html)
    x = 0
    for imgurl in imglist:
        urllib.urlretrieve(imgurl,‘%s.jpg‘ % x)
        x+=1


html = getHtml("http://tieba.baidu.com/p/2460150866")

print getImg(html)

這裏的核心是用到了urllib.urlretrieve()方法,直接將遠程數據下載到本地。

  通過一個for循環對獲取的圖片連接進行遍歷,為了使圖片的文件名看上去更規範,對其進行重命名,命名規則通過x變量加1。保存的位置默認為程序的存放目錄。

程序運行完成,將在目錄下看到下載到本地的文件。

Python 爬蟲 2 (轉)