1. 程式人生 > >python 用BeautifulSoup爬取貼吧圖片

python 用BeautifulSoup爬取貼吧圖片

# _*_ coding:utf-8 _*_
import urllib
from bs4 import BeautifulSoup
def get_content(url):
	""" doc."""
	html = urllib.urlopen(url)
	content= html.read()
	html.close()
	return content


def get_images(info):
	""" doc.
	<img style="-webkit-user-select: none;" src="https://imgsa.baidu.com/forum/w%3D580/sign=ab8a793e69d9f2d3201124e799ed8a53/4d16738da97739126365c3bef3198618377ae240.jpg" 
	width="580" height="435">
	"""
	soup = BeautifulSoup(info)
	#找到所有  img 標籤  然後後面跟的class =  BDE_Image
	all_img = soup.find_all('img',class_="BDE_Image")
	#設定計數器
	x = 1
	for img in  all_img:
		image_name = '%s.jpg' % x
		urllib.urlretrieve(img['src'],image_name)
		x += 1
	#return  len(all_img)
	print all_img
		
info = get_content('http://tieba.baidu.com/p/2772656630')
print get_images(info)

相關推薦

python BeautifulSoup圖片

# _*_ coding:utf-8 _*_ import urllib from bs4 import BeautifulSoup def get_content(url): """ doc.""" html = urllib.urlopen(url) content

Python爬蟲__圖片和文字

1. 爬取圖片 1.1 前言 我當年年少,還不知道爬蟲這個東西,又想把書法圖片儲存下來,於是一張張地把圖片另存為,現在用爬蟲來爬取每一樓的書法圖片,解放一下人力: 1.2 爬取圖片的流程可以總結如下: 1)爬取網頁的ht

Python爬蟲入門——圖片

最近忽然想聽一首老歌,“I believe” 於是到網上去搜,把幾乎所有的版本的MV都看了一遍(也是夠無聊的),最喜歡的還是最初版的《我的野蠻女友》電影主題曲的哪個版本,想起女神全智賢,心血來潮,於是就想到了來一波全MM的美照,哪裡有皁片呢?自然是百度貼吧了。 放上鍊接-—

python-關於爬蟲圖片

#利用xpath解析列表資料 from lxml import etree import requests import os # 需求:爬取百度貼吧圖片,翻頁,下載圖片儲存到本地 # 流程: # 1、構建url和headers # 2、傳送請求、獲取響應 # 3、解析列表

python批量下載上次論文,還在圖片?快批量下載sci論文,根據標題名或者DOI批量下載 scihub 科研下載神器

昨晚在下載scil論文,一共295篇,手動下載的話豈不是要累si? 於是想到有沒有批量下載sci論文的。 在web of science 上匯出下載問下的標題、DOI等txt檔案,然後篩選得到DOI和標題,儲存為新檔案。 通過迴圈得到DOI與標題,下載並儲存成標題命名。 程式參考如下

Python實現圖片

導讀:       最近周邊朋友學python的越來越多,毫無意外的是,大家都選擇了爬蟲入門。這不難理解。Python有豐富的庫使用,使得爬蟲的實現容易很多,學習之後,回報明顯,容易獲得成就感。總結起來就是:讓人有繼續學下去的慾望。我偏巧例外,先走了Python web。雖然

python爬蟲一張圖片

dsl com request http des get resp con quest 代碼: import requestsresponse = requests.get(‘https://s1.hdslb.com/bfs/static/jinkela/video/ass

Python多頁圖片

Python爬取貼吧圖片都只能爬取第一頁的,加了迴圈也不行,現在可以了。 #coding:utf-8 import urllib import urllib2 import re import o

裡的任意一張圖片

爬取百度貼吧隨便一頁裡的圖片 想爬圖片了,玩玩 import re import urllib user_agent = ‘Mozilla/4.0 (compatible; MSIE 5.5; Windows NT)’ headers = {‘User-Agent’:user_agent}

python的某個的網頁資訊

#-*-coding:utf-8-*- import urllib #負責url編碼處理 import urllib2 import sys import os if sys.getdefaultencoding() != 'utf-8': reload(sys)

Python帖子內容

# -*- coding: utf-8 -*- """ Created on Sun Nov 4 09:58:09 2018 @author: wangf """ import re import requests import urllib #處理頁面標籤

python爬蟲四:資料

# -*- coding: utf-8 -*- import requests import time from bs4 import BeautifulSoup import io import sys #sys.stdout = io.TextIOWrapper(sys

頁面

turn tex max request 完成 發送 span fragment 代碼 Get方式 GET請求一般用於我們向服務器獲取數據,比如說,我們用百度搜索傳智播客:https://www.baidu.com/s?wd=傳智播客 瀏覽器的url會跳轉成如圖所示

Python 利用 BeautifulSoup 網站獲取新聞流

lxml odi creat times 對比 文件中 lse win 危機 0. 引言   介紹下 Python 用 Beautiful Soup 周期性爬取 xxx 網站獲取新聞流; 圖 1 項目介紹 1. 開發環境   Python:    

urllib:靜態資料

    所謂網頁抓取,就是把URL地址中指定的網路資源從網路流中讀取出來,儲存到本地。 在Python中有很多庫可以用來抓取網頁,其中最常用的就是urllib。 urllib庫的基本使用 urllib提供了一系列用於操作URL的功能

簡單的案例

思路:用迴圈爬取n(任意數字)頁程式碼,然後儲存在檔案裡 一共三個函式: get_html函式是用來爬取頁面 save_html函式用來把爬取來的頁面程式碼儲存在檔案中 main作為主函式 程式碼如下: from urllib.request import

初涉爬蟲時的requests庫---內容

requests庫在爬蟲的實踐開發運用中較為常用,實現HTTP請求協議時方法簡單,操作方便,易於實現。對於一般的靜態網頁,都可以方便抓取想要的內容,比起scrapy等框架有明顯的優勢,爬取定向的簡單內容,是極好的。 下面就是運用requests模組,實現一個簡單的爬取貼吧網

Python爬蟲 -下載百度圖片

先放上程式的程式碼 import urllib.request import os import easygui as g import re def url_open(url): req = urllib.request.Request(url)

BeautifulSoup糗事百科段子

from bs4 import BeautifulSoup import lxml import requests import html import time import html5lib import re def crawl_joke_list_usebs4(pag

爬蟲Spider--

輸入起始頁的靈活爬取 # - * - coding: UTF-8 - * - """ import urllib2 url = "http://www.baidu.com" #IE 9.0 的 User-Agent,包含在 ua_header裡 ua_header = {"User-Agent