1. 程式人生 > >Python爬蟲實戰詳解:爬取圖片之家

Python爬蟲實戰詳解:爬取圖片之家

前言

本文的文字及圖片來源於網路,僅供學習、交流使用,不具有任何商業用途,版權歸原作者所有,如有問題請及時聯絡我們以作處理

如何使用python去實現一個爬蟲?

  • 模擬瀏覽器
    請求並獲取網站資料
    在原始資料中提取我們想要的資料 資料篩選
    將篩選完成的資料做儲存

完成一個爬蟲需要哪些工具

  • Python3.6
  • pycharm 專業版

目標網站

圖片之家

https://www.tupianzj.com/

 

爬蟲程式碼

匯入工具

python 自帶的標準庫

import ssl

 

系統庫 自動建立儲存資料夾

import os

 

下載包

import urllib.request

 

網路庫 第三方包

import requests

 

網頁選擇器

from bs4 import BeautifulSoup

 

預設請求https網站不需要證書認證

ssl._create_default_https_context = ssl._create_unverified_context

 

模擬瀏覽器

headers = {
    'User-Agent':
        'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/84.0.4147.105 Safari/537.36',
}

 

自動建立資料夾

if not os.path.exists('./插畫素材/'):
    os.mkdir('./插畫素材/')
else:
    pass

 

請求操作

url = 'https://www.tupianzj.com/meinv/mm/meizitu/'
html = requests.get(url, headers=headers).text

 

對頁面原始資料做資料提取

soup = BeautifulSoup(html, 'lxml')
images_data = soup.find('ul', class_='d1 ico3').find_all_next('li')
for image in images_data:
    image_url = image.find_all('img')
    for _ in image_url:
        print(_['src'], _['alt'])

 

下載

try:
    urllib.request.urlretrieve(_['src'], './插畫素材/' + _['alt'] + '.jpg')
except:
    pass

 

效果圖

 

 

 

相關推薦

Python爬蟲實戰圖片

前言 本文的文字及圖片來源於網路,僅供學習、交流使用,不具有任何商業用途,版權歸原作者所有,如有問題請及時聯絡我們以作處理 如何使用python去實現一個爬蟲? 模擬瀏覽器請求並獲取網站資料在原始資料中提取我們想要的資料 資料篩選將篩選完成的資料做儲存 完成一個爬蟲需要哪些工具 Python3.6 p

Python爬蟲實戰專案一】大眾點評團購詳情及團購評論

1 專案簡介 從大眾點評網收集北京市所有美髮、健身類目的團購詳情以及團購評論,儲存為本地txt檔案。 技術:Requests+BeautifulSoup 以美髮為例:http://t.dianping.com/list/beijing?q=美髮 爬取內容包括: 【團購詳情】團購名稱、原

Python爬蟲實戰 requests+beautifulsoup+ajax 半次元Top100的cos美圖

1.Python版本以及庫說明 Python3.7.1 Python版本urlencode 可將字串以URL編碼,用於編碼處理bs4 解析html的利器re 正則表示式,用於查詢頁面的一些特定內容requests 得到網頁html、jpg等資源的

推薦|23個Python爬蟲開源專案程式碼微信、淘寶、豆瓣、知乎、微博等

今天為大家整理了23個Python爬蟲專案。整理的原因是,爬蟲入門簡單快速,也非常適合新入門的小夥伴培養信心。所有連結指向GitHub,祝大家玩的愉快 1、WechatSogou [1]– 微信公眾號爬蟲。 基於搜狗微信搜尋的微信公眾號爬蟲介面,可以擴充套件成基於搜狗搜尋的爬

python 爬蟲實戰(一)豆瓣圖書top250

import requests from lxml import etree with open('booktop250.txt','w',encoding='utf-8') as f: f

小白學 Python 爬蟲(25)股票資訊

人生苦短,我用 Python 前文傳送門: 小白學 Python 爬蟲(1):開篇 小白學 Python 爬蟲(2):前置準備(一)基本類庫的安裝 小白學 Python 爬蟲(3):前置準備(二)Linux基礎入門 小白學 Python 爬蟲(4):前置準備(三)Docker基礎入門 小白學 Pyth

Python爬蟲系列】使用requests圖片

Python3常用的爬蟲第三方外掛有requests,urllib.request等。這裡主要介紹使用requests抓取網頁上的圖片,該方法只針對靜態網頁,不考慮js動態載入的網頁。 預備知識: requests模組的基本瞭解,包括get,post等方法和status_

python爬蟲實戰 汽車上車型價格

相關庫 import pymysql import pymysql.cursors from bs4 import BeautifulSoup import requests import random

Python網路爬蟲(九)頂點小說網站全部小說,並存入MongoDB

前言:本篇部落格將爬取頂點小說網站全部小說、涉及到的問題有:Scrapy架構、斷點續傳問題、Mongodb資料庫相關操作。 背景: Python版本:Anaconda3 執行平臺:Windows IDE:PyCharm 資料庫:MongoDB 瀏

爬蟲(七)貓眼電影top100

all for rip pattern 分享 爬取 values findall proc 一:分析網站 目標站和目標數據目標地址:http://maoyan.com/board/4?offset=20目標數據:目標地址頁面的電影列表,包括電影名,電影圖片,主演,上映日期以

大神教你如果學習Python爬蟲 如何才能高效地海量數據

Python 爬蟲 分布式 大數據 編程 Python如何才能高效地爬取海量數據我們都知道在互聯網時代,數據才是最重要的,而且如果把數據用用得好的話,會創造很大的價值空間。但是沒有大量的數據,怎麽來創建價值呢?如果是自己的業務每天都能產生大量的數據,那麽數據量的來源問題就解決啦,但是沒有數

Python爬蟲】從html裏中國大學排名

ext 排名 所有 一個 requests 空格 創建 .text request from bs4 import BeautifulSoupimport requestsimport bs4 #bs4.element.Tag時用的上#獲取網頁頁面HTMLdef

python爬蟲-20行代碼王者榮耀所有英雄圖片,小白也輕輕松松

需要 tis tca wcf 爬取 html eas request 有用 1.環境 python3.6 需要用到的庫: re、os、requests 2.簡介 王者榮耀可以算得上是比較受歡迎的手遊之一了,應該有不少的人都入坑過農藥,我們今天的目的就是要爬取王者榮耀的高

Python爬蟲初探 - selenium+beautifulsoup4+chromedriver需要登錄的網頁信息

-- pro tag bug gui 結果 .com 工作 ges 目標 之前的自動答復機器人需要從一個內部網頁上獲取的消息用於回復一些問題,但是沒有對應的查詢api,於是想到了用腳本模擬瀏覽器訪問網站爬取內容返回給用戶。詳細介紹了第一次探索python爬蟲的坑。 準備工作

Python爬蟲實習筆記 | Week3 資料和正則再學習

2018/10/29 1.所思所想:雖然自己的考試在即,但工作上不能有半點馬虎,要認真努力,不辜負期望。中午和他們去吃飯,算是吃飯創新吧。下午爬了雞西的網站,還有一些欄位沒爬出來,正則用的不熟悉,此時終於露出端倪,心情不是很好。。明天上午把正則好好看看。 2.工作: [1].哈爾濱:html p

爬蟲實戰----簡書的和儲存

網站: https://www.jianshu.com/ 網站資料結構分析: 滑輪拉到最下面:   這是一個懶載入,只有點選閱讀更多的時候,才會有後續的資料,我們可以使用selenium。 並且可以設定點選的次數,程式碼如下: browser = webd

python網路爬蟲汽車的最新資訊和照片

實現的功能是爬取汽車之家的最新資訊的連結 題目和文章中的照片 爬蟲需要用到我們使用了 requests 做網路請求,拿到網頁資料再用 BeautifulSoup 進行解析 首先先檢查是否安裝了pip,如果已經安裝了pip,直接pip install requests,pip uninstal

Python爬蟲-利用正則表示式貓眼電影

利用正則來爬去貓眼電影 =================================== ===================================================== 1 ''' 2 利用正則來爬去貓眼電影 3 1. url: http://maoya

Python爬蟲--http及chrome響應URL過程

什麼是http和https協議: 1.HTTP協議:全稱是HyperText Transfer Protocol,中文意思是超文字傳輸協議,是一種釋出和接收HTML頁面的方法。伺服器埠號是80埠。 2.HTTPS協議:是HTTP協議的加密版本,在HTTP下加入了SSL層。

Python爬蟲(二十)_動態影評信息

type 8.0 out span none function title hot output 本案例介紹從JavaScript中采集加載的數據。更多內容請參考:Python學習指南 #-*- coding:utf-8 -*- import requests imp