1. 程式人生 > >網路爬蟲之爬取網頁圖片並儲存

網路爬蟲之爬取網頁圖片並儲存

爬取網頁圖片並儲存在本地

將網頁上的圖片爬取之後,以圖片原有名字儲存在本地
程式碼:

import requests
import os
url="http://p1.so.qhmsg.com/bdr/_240_/t01dab8b2e73fe661d6.jpg"
root="D://pics//"   #根目錄
path=root+url.split('/')[-1] #根目錄加上url中以反斜槓分割的最後一部分,即可以以圖片原來的名字儲存在本地
try:
    if not os.path.exists(root):#判斷當前根目錄是否存在
        os.mkdir(root)          #建立根目錄
if not os.path.exists(path):#判斷檔案是否存在 r=requests.get(url) with open(path,'wb')as f: f.write(r.content) f.close() print("檔案儲存成功") else: print("檔案已存在") except: print("爬取失敗")

執行結果:
這裡寫圖片描述

相關推薦

網路爬蟲網頁圖片儲存

爬取網頁圖片並儲存在本地 將網頁上的圖片爬取之後,以圖片原有名字儲存在本地 程式碼: import requests import os url="http://p1.so.qhmsg.com/bdr/_240_/t01dab8b2e73fe661d6

Python——網路爬蟲網頁圖片

最近在學習 Python, 然後就試著寫了一個簡單的Python小程式,爬取一個網頁的圖片,不得不說 Python 真的強大,以下是爬取 NEFU Online Judge 網站的程式碼。 吐槽:其實

如何通過jsoup網路爬蟲工具網頁資料,通過jxl工具匯出到excel

 1:閒話少說,直接看需求: 抓取的url:http://www.shparking.cn/index.php/welcome/municipal_parking?key=&per_page=.  參考的資料:http://blog.csdn.net/lmj6235

第十講:Python網頁圖片儲存到本地,包含次層頁面

上一講我們講到了從暱圖網的首頁下載圖片到本地,但是我們發現首頁上面的大部分連結其實都可以進入到二級頁面。 在二級頁面裡面,我們也

python實戰網路爬蟲網頁新聞資訊列表)

關於大資料時代的資料探勘 (1)為什麼要進行資料探勘:有價值的資料並不在本地儲存,而是分佈在廣大的網路世界,我們需要將網路世界中的有價值資料探勘出來供自己使用 (2)非結構化資料:網路中的資料大多是非結構化資料,如網頁中的資料都沒有固定的格式 (3)非結構化資料的挖掘--ETL:即三個步

Python網路爬蟲淘寶網頁頁面 MOOC可以執行的程式碼

可以實現功能的全部程式碼: import requests import re def getHTMLText(url): try: r = requests.get(url, timeout = 30) r.raise_for_statu

python初級實戰系列教程《一、爬蟲網頁圖片、音視訊》

python基礎知識可以到廖雪峰大佬的官網學習哦! 廖雪峰官網網址 學完python就開始我們的實戰吧!首先我們就來學習下python爬蟲 學習Python爬蟲,先是介紹一個最容易上手的庫urll

python爬蟲小試例項--網頁圖片下載

一、python安裝在python的官網下載python版本,需要下載對應版本(在計算機-屬性中檢視自己是32位作業系統還是64位作業系統),我是64位的,就下載64位對應的安裝包了(如下圖:Windows x86-64 executable installer)。官網下載地

簡單爬蟲網站圖片

 這裡選取的網址是  http://www.doutula.com   目的:爬取其中的圖片  並且翻頁爬取 首頁圖片的規則 <img src="https://ws3.sinaimg.cn/bmiddle/6af89bc8gw1f

Python爬蟲 BeautifulSoup抓網頁資料 儲存到資料庫MySQL

最近剛學習Python,做了個簡單的爬蟲,作為一個簡單的demo希望幫助和我一樣的初學者 程式碼使用python2.7做的爬蟲  抓取51job上面的職位名,公司名,薪資,釋出時間等等 直接上程式碼,程式碼中註釋還算比較清楚 ,沒有安裝mysql需要遮蔽掉相關程式碼:#!/u

一個鹹魚的Python爬蟲路(三):網頁圖片

you os.path odin 路徑 生成 存在 parent lose exist 學完Requests庫與Beautifulsoup庫我們今天來實戰一波,爬取網頁圖片。依照現在所學只能爬取圖片在html頁面的而不能爬取由JavaScript生成的圖。所以我找了這個網站

小白scrapy爬蟲簡書網頁下載對應鏈接內容

tps python 分享 列表 scrapy 網頁 pytho 分享圖片 介紹 *準備工作: 爬取的網址:https://www.jianshu.com/p/7353375213ab 爬取的內容:下圖中python庫介紹的內容列表,並將其鏈接的文章內容寫進文本文件中 小

python3 學習 3:python爬蟲動態載入的圖片,以百度圖片為例

轉: https://blog.csdn.net/qq_32166627/article/details/60882964 前言: 前面我們爬取圖片的網站都是靜態的,在頁面中右鍵檢視原始碼就能看到網頁中圖片的位置。這樣我們用requests庫得到頁面原始碼後,再用bs4庫解析標籤即可儲存圖片

網路爬蟲動態網頁

import requests from bs4 import BeautifulSoup res = requests.get('http://news.sina.com.cn/c/nd/2017-06-12/doc-ifyfzhac1650783.shtml') res.encoding = '

python實戰網路爬蟲新聞內文資訊)

(1)前期準備:開啟谷歌瀏覽器,進入新浪新聞網國內新聞頁面,點選進入其中一條新聞,開啟開發者工具介面。獲取當前網頁資料,然後使用BeautifulSoup進行剖析,程式碼: import requests from bs4 import BeautifulSoup res = requests.

python 爬蟲網頁的img下載)

from urllib.request import urlopen # 引用第三方庫 import requests #引用requests/用於訪問網站(沒安裝需要安裝) from pyquery import PyQuery as pq #引用PyQuery用於 解析 # def get_url(

[Java爬蟲] 使用 Jsoup + HttpClient 網頁圖片

一、前言 把一篇圖文並茂的優秀文章全部爬取下來,就少不了 Java 爬蟲裡邊的 圖片爬取 技術了。很多人都用來爬取美女圖片,但是筆者覺得這有傷大雅。下面筆者使用它來爬取 CSDN 【今日推薦】文章附帶的圖片 二、程式碼、依賴 筆者對本程式碼經過多次

python3爬蟲網頁圖片簡單示例

   本人也是剛剛開始學習python的爬蟲技術,然後本來想在網上找點教程來看看,誰知道一搜索,大部分的都是用python2來寫的,新手嘛,一般都喜歡裝新版本。於是我也就寫一個python3簡單的爬蟲,爬蟲一下貼吧的圖片吧。話不多說,我們開始。 首先簡單來說說一下知識。 一

Python3爬蟲百度高清圖片

#!/usr/bin/env python # -*- coding:utf-8 -*- # Author: OFZFZS # Datetime:2018/3/23 11:00 # Description: 百度圖片爬取 這裡只做了簡單處理,注意百度圖片返回的資料是aja

python學習(7):python爬蟲動態載入的圖片,以百度圖片為例

前言: 前面我們爬取圖片的網站都是靜態的,在頁面中右鍵檢視原始碼就能看到網頁中圖片的位置。這樣我們用requests庫得到頁面原始碼後,再用bs4庫解析標籤即可儲存圖片到本地。 當我們在看百度圖片時,右鍵–檢查–Elements,點選箭頭,再用箭頭點選圖片時