1. 程式人生 > >一起學爬蟲——使用Beautiful Soup爬取網頁

一起學爬蟲——使用Beautiful Soup爬取網頁

要想學好爬蟲,必須把基礎打紮實,之前釋出了兩篇文章,分別是使用XPATH和requests爬取網頁,今天的文章是學習Beautiful Soup並通過一個例子來實現如何使用Beautiful Soup爬取網頁。

什麼是Beautiful Soup

  • Beautiful Soup是一款高效的Python網頁解析分析工具,可以用於解析HTL和XML檔案並從中提取資料。
  • Beautiful Soup輸入檔案的預設編碼是Unicode,輸出檔案的編碼是UTF-8。
  • Beautiful Soup具有將輸入檔案自動補全的功能,如果輸入的HTML檔案的title標籤沒有閉合,則在輸出的檔案中會自動補全,並且還可以將格式混亂的輸入檔案按照標準的縮排格式輸出。

Beautiful Soup要和其他的解析器搭配使用,例如Python標準庫中的HTML解析器和其他第三方的lxml解析器,由於lxml解析器速度快、容錯能力強,因此一般和Beautiful Soup搭配使用。

初始化Beautiful Soup物件的程式碼:

html = 
'''
<html><title>Hello Beautiful Soup</title><p>Hello</p></html>
'''
soup = BeautifulSoup(html,'lxml')

只需把第二個引數寫成"lxml"即可使用lxml解析器初始化Beautiful Soup物件。

Beautiful Soup提供了三種選擇器用去爬取節點中的資料,分別是節點選擇器、方法選擇器和CSS選擇器。下面分別介紹著三個選擇器的用法。

節點選擇器:
HTML網頁有title、p、a、head、tr、td等節點。通過Beautiful Soup物件+"."+節點即可直接訪問到節點。
Beautiful Soup物件+"."+節點+"."+string即可提取到節點的文字資訊。

用法 描述
soup.title 選擇第一個title節點
soup.title.string 提取第一個title節點的文字資訊
soup.title.attrs 獲取第一個title節點的所有屬性,返回的結果的詞典。
如果有class屬性,則class屬性返回的是list,class屬性之間以空格當做分隔符
soup.p.contents 獲取第一個p節點的所有直接子節點。
該方法返回的是第一個p節點中包含的所有直接子位元組點和文字,
不包含孫節點,兩個節點之間的文字也當做是一個節點返回。
返回的結果是列表
soup.p.children 返回第一個p節點的所有直接子節點,返回的結果是list_iterator物件
soup.p.descendants 獲取第一個p節點的所有子孫節點
soup.a.parent 獲取第一個a節點的父節點
soup.a.parents 獲取第一個a節點的所有祖先節點
soup.p.next_siblings 獲取第一個p節點的下一個兄弟節點
soup.p.previous_siblings 獲取第一個p節點的上一個兄弟節點

方法選擇器:
根據傳入的引數查詢符合條件的節點。
下面是方法選擇器提供的方法:

方法 描述
find_all(name,attrs,recursive,text,**kwargs) 根據傳入引數查詢所有符合條件的節點,
name是節點名,attrs屬性值,text文字內容等。
text引數可以是字串,也可以是正則表示式:
soup.find_all(text=re.compile('test'))
find(name,attrs,recursive,text,**kwargs) 返回第一個符合條件的節點
find_parents() 返回所有祖先節點
find_parent() 返回父節點
find_next_siblings() 往後查詢,所有兄弟節點
find_next_sibling() 往後查詢,返回第一個兄弟節點
find_previous_siblings() 往前查詢,返回所有兄弟節點
find_previous_sibling() 往前查詢,返回第一個兄弟節點

在使用上面的方法時,如果引數中有Python的關鍵字,則需要在引數下面加一個下劃線,例如下面的程式碼,class是Python的關鍵字,必須在class後加下劃線class_="title_class":

from bs4 import BeautifulSoup

html = '''
<html>
    <body>
        <title id="title_id" class="title_class" name="title name">Test BeautifulSoup</title>
        <p>
            <a href = "./test_beautifulsoup.html">test beautifulsoup link<a>
            
        </p>
        <ul>
            <li class="animal">cat</li>
            <li class="animal">dog</li>
        </ul>
    </body>
</html>
'''

soup = BeautifulSoup(html,'lxml')
print(soup.find_all(name='title',class_='title_class'))

CSS選擇器:
BeautifulSoup還支援獲取css元素,例如ul、div、li等元素。CSS選擇器主要提供select()方法獲取符合條件的節點(Tag物件),然後通過節點的get_text()方法和text屬性可以獲取該節點的文字值。

select方法還可以根據css的樣式規則選擇相應的節點:

from bs4 import BeautifulSoup

html = '''
<html>
    <body>
        <title id="title_id" class="title_class" name="title name">Test BeautifulSoup</title>
        <p>
            <a href = "./test_beautifulsoup.html">test beautifulsoup link<a>
            
        </p>
        <ul class="animal" id="aninal_id">
            <li class="cat">cat</li>
            <li class="animal dog">dog</li>
        </ul>
        <ul class="fruit" id = "fruit_id">
            <li class="apple">apple</li>
            <li class="banana">banana</li>
        </ul>
    </body>
</html>
'''

soup = BeautifulSoup(html,'lxml')
print('獲取id為title_的所有節點')
print(soup.select('#title_id'))
print('獲取class為title_的所有節點')
print(soup.select('.title_class'))
print('獲取所有ul節點下面的所有li節點')
print(soup.select('ul li'))
print('獲取所有class為fruit節點下的所有li節點')
print(soup.select('.fruit li'))
print('獲取所有class為fruit節點下的第一個li節點的文字值')
print(soup.select('.fruit li')[0].string)
print('獲取所有class為fruit節點下的第一個li節點的文字值')
print(soup.select('.fruit li')[0].get_text())
print('獲取所有class為fruit節點下的第一個li節點的class屬性值,注意class屬性返回的是list列表,屬性之間用空格分隔')
print(soup.select('.fruit li')[0].attrs['class'])
print(soup.select('.animal li')[1].attrs['class'])
print('迴圈迭代所有ul下面的所有li節點的文字值')
for li in soup.select('ul li'):
    print(li.text)

下面分析怎麼通過beautiful soup抓取到我們的資料。
通過開發者工具,我們可以看到所有歌曲是在class為article的div中,然後每首個在class為clearfix的li中。
python beautifulsoup
因此首先使用css選擇器獲取到class為article下面的所有li節點:

soup.select(".article li")

然後檢視每首歌曲的html程式碼:
python beautifulsoup
紅色框部分是一首歌的html程式碼。
歌曲排名在class為“gree-num-box”的span節點中,因為span節點是<li class="clearfix">節點的子節點,獲取排名的程式碼為:li.span.text

綠色框中A節點中是歌曲的連結和圖片連結,獲取歌曲連結的程式碼為:li.a['href']

藍色框中是歌曲的名字、演唱者和播放次數,歌曲名是在class="icon-play"的H3節點中,因此可以使用方法選擇器中的find()方法獲取到H3節點,然後獲取H3節點下面a節點中的文字資訊就是歌曲的名字,程式碼為:li.find(class_="icon-play").a.text

獲取演唱者和播放次數的程式碼為:
li.find(class_="intro").p.text.strip()

獲取上榜天數的程式碼為:

li.find(class_="days").text.strip()

在豆瓣音樂排行榜的頁面一個現實20首歌曲,前面10首歌曲會有圖片,後面10首歌曲是沒有圖片的,因此後面10首歌曲將不獲取圖片的地址。

另外還有一點需要注意的是,後面10首歌曲的演唱者和播放次數是在class="icon-play"的p節點中:
python beautifulsoup

而該節點中有a節點,要想獲取a節點外的資訊,必須使用節點選擇器的contents方法:
li.find(class_="intro").p.contents[2].strip()
contents返回的是p節點的直接子節點,以列表的形式返回,這裡返回列表中有3個元素,分別是

後的字串,a節點、演唱者/播次數。contents會將直接子節點之間的換行符也當做一個元素。

程式碼整理後如下:

# coding:utf-8

from bs4 import BeautifulSoup
import requests
def parseHtml(url):
    headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.36 SE 2.X MetaSr 1.0"}

    response = requests.get(url,headers=headers)
    soup = BeautifulSoup(response.text,'lxml')
    #使用css選擇器獲取class="article"的節點下面的所有li節點
    for index,li in enumerate(soup.select(".article li")):
        if(index <10):
            print('歌曲排名:' + li.span.text)
            print('歌曲連結:' + li.a['href'])
            print('歌曲名:' + li.find(class_="icon-play").a.text)#使用方法選擇器
            print('演唱者/播放次數:' + li.find(class_="intro").p.text.strip())
            print('上榜時間:'+li.find(class_="days").text.strip())
        else:
            print('歌曲排名:' + li.span.text)
            print('歌曲名:' + li.find(class_="icon-play").a.text)
            print('演唱者/播放次數:' + li.find(class_="intro").p.contents[2].strip())#方法選擇器和節點選擇器搭配使用
            print('上榜時間:' + li.find(class_="days").text.strip())
        print('—————————————————強力分隔符———————————————————')

def main():
    url = "https://music.douban.com/chart"
    parseHtml(url)

if __name__ == '__main__':
    main()

本文通過爬取豆瓣音樂排行榜的小專案學習瞭如何使用Beautiful Soup的節點選擇器、方法選擇器、CSS選擇器來爬取一個網頁。這三個選擇器可以混合搭配使用。

相關推薦

一起爬蟲——使用Beautiful Soup網頁

要想學好爬蟲,必須把基礎打紮實,之前釋出了兩篇文章,分別是使用XPATH和requests爬取網頁,今天的文章是學習Beautiful Soup並通過一個例子來實現如何使用Beautiful Soup爬取網頁。 什麼是Beautiful Soup Beautiful Soup是一款高效

一起爬蟲——使用Beautiful Soup網頁

要想學好爬蟲,必須把基礎打紮實,之前釋出了兩篇文章,分別是使用XPATH和requests爬取網頁,今天的文章是學習Beautiful Soup並通過一個例子來實現如何使用Beautiful Soup爬取網頁。 什麼是Beautiful Soup Beautiful Soup是一款高效的Python網頁解析

Python3網路爬蟲:使用Beautiful Soup小說

本文是http://blog.csdn.net/c406495762/article/details/71158264的學習筆記 作者:Jack-Cui 博主連結:http://blog.csdn.net/c406495762 執行平臺: OSX Python版本: Pyth

Python3 學習4:使用Beautiful Soup小說

轉自:jack-Cui 老師的  http://blog.csdn.net/c406495762 執行平臺: Windows Python版本: Python3.x IDE: Sublime text3 一、Beau

用etree和Beautiful Soup騰訊招聘網站

1.lxml 是一種使用 Python 編寫的庫,可以迅速、靈活地處理 XML ,支援 XPath (XML Path Language),使用 lxml 的 etree 庫來進行爬取網站資訊 2.Beautiful Soup支援從HTML或XML檔案中提取資料的Python庫;支援Python標準庫中的H

python爬蟲小試例項--網頁圖片並下載

一、python安裝在python的官網下載python版本,需要下載對應版本(在計算機-屬性中檢視自己是32位作業系統還是64位作業系統),我是64位的,就下載64位對應的安裝包了(如下圖:Windows x86-64 executable installer)。官網下載地

不會Python爬蟲?教你一個通用爬蟲思路輕鬆網頁資料

  前言 其實爬蟲的思路很簡單,但是對於很多初學者而言,看得懂,但是自己寫的時候就不知道怎麼去分析了!說實話還是寫少了,自己不要老是抄程式碼,多動手! 本人對於Python學習建立了一個小小的學習圈子,為各位提供了一個平臺,大家一起來討論學習Python。歡迎各位

[原創]python爬蟲之BeautifulSoup,網頁上所有圖片標題並存儲到本地文件

%20 分享圖片 本地 col cbc quest 執行 python div from bs4 import BeautifulSoup import requests import re import os r = requests.get("https:/

案例學python——案例三:豆瓣電影資訊入庫 一起爬蟲——通過豆瓣電影top250學習requests庫的使用

  閒扯皮 昨晚給高中的妹妹微信講題,函式題,小姑娘都十二點了還迷迷糊糊。今天凌晨三點多,被連續的警報聲給驚醒了,以為上海拉了防空警報,難不成地震,空襲?難道是樓下那個車主車子被堵了,長按喇叭?開窗看看,好像都不是。好鬼畜的警報聲,家裡也沒裝報警器啊,莫不成家裡煤氣漏了?起床循聲而查,報警

一起爬蟲——使用xpath庫貓眼電影國內票房榜

之前分享了一篇使用requests庫爬取豆瓣電影250的文章,今天繼續分享使用xpath爬取貓眼電影熱播口碑榜 XPATH語法 XPATH(XML Path Language)是一門用於從XML檔案中查詢資訊的語言。通用適用於從HTML檔案中查詢資料。工欲善其事必先利其器,我們首先來了解XPATH常用的語法

一起爬蟲——如何通過ajax載入資料的網站

目前很多網站都使用ajax技術動態載入資料,和常規的網站不一樣,資料時動態載入的,如果我們使用常規的方法爬取網頁,得到的只是一堆html程式碼,沒有任何的資料。 請看下面的程式碼: url = 'https://www.toutiao.com/search/?keyword=美女' headers = {

一起爬蟲——通過豆瓣電影top250學習requests庫的使用

學習一門技術最快的方式是做專案,在做專案的過程中對相關的技術查漏補缺。 本文通過爬取豆瓣top250電影學習python requests的使用。 1、準備工作 在pycharm中安裝request庫 請看上圖,在pycharm中依次點選:File->Settings。然後會彈出下圖的介面: 點選2

一起爬蟲 Node.js 爬蟲篇(三)使用 PhantomJS 動態頁面

今天我們來學習如何使用 PhantomJS 來抓取動態網頁,至於 PhantomJS 是啥啊什麼的,看這裡 我們這裡就不再討論 PhantomJS 的入門基礎了。下面正題 1.我們先準備,開啟瀏覽器,輸入網址 http://news.163

一個鹹魚的Python爬蟲之路(三):網頁圖片

you os.path odin 路徑 生成 存在 parent lose exist 學完Requests庫與Beautifulsoup庫我們今天來實戰一波,爬取網頁圖片。依照現在所學只能爬取圖片在html頁面的而不能爬取由JavaScript生成的圖。所以我找了這個網站

Python爬蟲:現現用Xpath豆瓣音樂

9.1 tree when href scrapy 發現 pat 直接 where 爬蟲的抓取方式有好幾種,正則表達式,Lxml(xpath)與Beautiful,我在網上查了一下資料,了解到三者之間的使用難度與性能 三種爬蟲方式的對比。 抓取方式 性能 使用難度

Java爬蟲學習《一、網頁URL》

導包,如果是用的maven,新增依賴: <dependency> <groupId>commons-httpclient</groupId> <artifactId>commons

★ Python爬蟲 - 網頁文字資訊並儲存(美文的與儲存)

 本篇文章所包含的主要內容:  使用requests模組實現對網頁以字串的形式儲存 使用open()、write()、close()函式實現檔案的開啟與寫入 使用if() 條件語句對所需要的文字資訊進行過濾以形成一個專用提取函式 &n

Python 爬蟲技巧1 | 將網頁中的相對路徑轉換為絕對路徑

1.背景: 在爬取網頁中的過程中,我對目前爬蟲專案後端指令碼中拼接得到絕對路徑的方法很不滿意,今天很無意瞭解到在python3 的 urllib.parse模組對這個問題有著非常完善的解決策略,真的是上天有眼,感動! 2.urllib.parse模組 This module define

爬蟲入門之靜態網頁表格資料

我們的目標就是將這個表格中的資料爬下來儲存成csv檔案 目標連結:http://www.zuihaodaxue.cn/zuihaodaxuepaiming2018.html 內容解析部分 我更喜歡使用Pyquery 你也可以使用其他的解析方式 #!/usr/bin/env py

python實戰之網路爬蟲網頁新聞資訊列表)

關於大資料時代的資料探勘 (1)為什麼要進行資料探勘:有價值的資料並不在本地儲存,而是分佈在廣大的網路世界,我們需要將網路世界中的有價值資料探勘出來供自己使用 (2)非結構化資料:網路中的資料大多是非結構化資料,如網頁中的資料都沒有固定的格式 (3)非結構化資料的挖掘--ETL:即三個步