1. 程式人生 > >入門十天,我就用50行Python程式碼爬到了整個網站

入門十天,我就用50行Python程式碼爬到了整個網站

 

這篇文章是利用aiohttp這個庫來進行說明的。

如果爬蟲需要展現速度,我覺得就是去下載圖片吧,原本是想選擇去煎蛋那裡下載圖片的,那裡的美女圖片都是高質量的,我稿子都是差不多寫好了的,無奈今天重新看下,妹子圖的入口給關了,至於為什麼關呢,大家可以去看看昨天好奇心日報的關停原因吧或者百度下,這裡就不多說了,這次我選擇了去下載無版權高清圖片,因為做自媒體的人很怕侵權,找無版權的圖片彷彿成了日常工作,所以這次我選擇了這個網站。

學習Python中有不明白推薦加入交流裙
                號:735934841
                群裡有志同道合的小夥伴,互幫互助,
                群裡有免費的視訊學習教程和PDF!

 

 

那下面來看看使用非同步以及不使用非同步的差別?

 

 

 

(右邊是使用非同步的,左邊是沒有使用非同步的,由於用於測試,所以選擇下載12張圖片即可)

可以看到,在使用非同步之後執行的時間比不使用非同步的程式少了差不多6倍的時間,是不是感覺到high了起來?那我們分析下怎樣爬取吧。

1.找目標網頁

這個網站首頁就有一堆圖片,而且往下拉時還會自動重新整理,很明顯是個ajax載入,但不怕,動態載入這東西我們之前講過了,所以開啟開發者工具看下是怎樣的請求吧。

 

 

 

 

 

 

往下拉的時候很容易看到這個請求,這個是一個get請求,狀態碼為200,網址為網頁連結photos?page=3&per_page=12&order_by=latest,有三個引數,很容易知道page引數就是頁,這個引數是變化的,其他的引數都是不變的。

 

 

 

返回來的內容是個json型別,裡面的links下的download就是我們圖片下載的連結,現在所有東西都清楚了,那下面就是程式碼了。

2.程式碼部分

async def __get_content(self, link):

async with aiohttp.ClientSession as session:

response = await session.get(link)

content = await response.read

return content

這個是獲取圖片的內容的方法,aiohttpClientSession和requests.session的用法是差不多,只不過獲取unicode編碼的方法變成了read

下面是完整程式碼

import requests, os, time

import aiohttp, asyncio

class Spider(object):

def __init__(self):

self.headers = {

'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/67.0.3396.99Safari/537.36'}

self.num = 1

if '圖片' not in os.listdir('.'):

os.mkdir('圖片')

self.path = os.path.join(os.path.abspath('.'), '圖片')

os.chdir(self.path) # 進入檔案下載路徑

async def __get_content(self, link):

async with aiohttp.ClientSession as session:

response = await session.get(link)

content = await response.read

return content

def __get_img_links(self, page):

url = '網頁連結photos'

data = {

'page': page,

'per_page': 12,

'order_by': 'latest'

}

response = requests.get(url, params=data)

if response.status_code == 200:

return response.json

else:

print('請求失敗,狀態碼為%s' % response.status_code)

async def __download_img(self, img):

content = await self.__get_content(img[1])

with open(img[0]+'.jpg', 'wb') as f:

f.write(content)

print('下載第%s張圖片成功' % self.num)

self.num += 1

def run(self):

start = time.time

for x in range(1, 101): # 下載一百頁的圖片就可以了,或者自己更改頁數

links = self.__get_img_links(x)

tasks = [asyncio.ensure_future(self.__download_img((link['id'], link['links']['download']))) for link in links]

loop = asyncio.get_event_loop

loop.run_until_complete(asyncio.wait(tasks))

if self.num >= 10: # 測試速度使用,如需要下載多張圖片可以註釋這段程式碼

break

end = time.time

print('共運行了%s秒' % (end-start))

def main:

spider = Spider

spider.run

if __name__ == '__main__':

main

可以看到不到50行的程式碼就可以把整個網網站的圖片下載下來了,不得不吹一下python的強大~~~