1. 程式人生 > >爬蟲教程」Python做一個簡單爬蟲,小白也能看懂的教程

爬蟲教程」Python做一個簡單爬蟲,小白也能看懂的教程

俗話說“巧婦難為無米之炊”,除了傳統的資料來源,如歷史年鑑,實驗資料等,很難有更為簡便快捷的方式獲得資料,在目前網際網路的飛速發展寫,大量的資料可以通過網頁直接採集,“網路爬蟲”應運而生,本篇將會講解簡單的網路爬蟲編寫方法。

 

開發環境

每個人的開發環境各異,下面上是我的開發環境,對於必須的工具,我會加粗。

windows10(作業系統),pycharm(IDE,當然,用eclipse和sublime均可)python(這個必須的額,我下面實現的程式碼版本是2.7),BeautifulSoup4urllib2等。

什麼是爬蟲

爬蟲是自動從網際網路上獲取資料的程式

下面是一張對簡單爬蟲的結構進行描述的圖,其主體是URL管理器,網頁下載器和網頁解析器。爬蟲排程端指的是對爬蟲釋出指令的埠,人可以對其進行設定,爬什麼內容,怎麼爬,需要進行什麼其他的操作等,通過爬蟲,就能夠得到所需的有價值的資料。

下面一張時序圖圖簡單講述了爬蟲的執行流程。從上往下看,排程器訪問URL管理器檢視其中由於可訪問的待爬取的URL,如果返回是即將1個待爬的URL傳給調取器,排程器讓下載器將URL對應的網頁下載下來,返回給排程器,排程器將下載的網頁發給解析器進行解析,解析之後返回到排程器,此時資料已經初步形成,可以開始進一步的使用。如此迴圈直到URL管理器為空或者資料量足夠大。

URL管理器

URL管理器:管理待抓取的URL集合和已抓取URL集合。主要實現下面種功能。

新增新URL到待爬集合中。

判斷待新增URL是否在容器中。

獲取待爬取URL。

判斷是否還有待爬取URL。

將待爬取URL移動到已爬取。

實現方式:

記憶體:python的set集合

關係資料庫,MySQL,urls(url, is_crawled)

快取資料庫:redis的set集合

網頁下載器

網頁下載器:將網際網路上URL對應網頁下載到本地的工具。

 

我剛整理了一套2018最新的0基礎入門和進階教程,無私分享,加Python學習q u n :227-435-450即可獲取,內附:開發工具和安裝包,以及系統學習路線圖python的

網頁下載器

urllib2-python-官方基礎模組

requests-第三方更強大

urllab2下載器使用方法:

最簡捷方法:直接寫出連結並且請求。

新增data、http helper,data和httphelper能分別為下載提供更加精確的目標,同時可以模仿瀏覽器對網頁進行訪問,能攻破一些反爬蟲策略。

新增特殊情景處理器,例如賬號密碼輸入等,有些網站只有在使用者登入時才能瀏覽,而情景處理器就能模擬這形式。

執行例項:

網頁解析器

網頁解析器:從網頁中提取有價值資料的工具,側面而言,也能看做是整合資料的一個步驟,但是由於爬取資料複雜度較高,所以不會將太多的資料整合、整合、清洗任務放在這裡,只是進行簡單的整合,成為陣列或者矩陣等而已。

Beautiful Soup

python第三方庫,用於從HTML或者XML中提取資料,有自己的官網,同時還有API文件。

其下載方式可在API文件中找到。

用法介紹如下圖所示。BeautifulSoup物件建立之後能夠去搜索節點,根據節點名、屬性值或者是節點文字等資訊進行查詢,能夠達到精確搜尋的目的,減少垃圾資料獲取。

舉一個例子,對一個標籤:

能有三種方式搜尋

節點名稱:a

節點屬性:"href='123.html',和class=article_link"

節點內容:python

語法使用如下:

下面是具體的案例: