1. 程式人生 > >[爬蟲]python自動呼叫瀏覽器訪問網頁增加訪問量

[爬蟲]python自動呼叫瀏覽器訪問網頁增加訪問量

該程式主要是為了增長訪問量而寫的,主要針對一些訪問量與使用者資訊無關的網頁,比如CSDN。當然前提是python安裝相應的庫。原理很簡單,沒有用到什麼高階的爬蟲技術,沒有用到正則表示式什麼的。其實就是呼叫你的瀏覽器,然後程式自動幫你開啟你的部落格網頁,隔一段時間自動關閉,以此迴圈,刷訪問量。不多說了,直接貼程式碼吧。

import webbrowser as web
import time
import os
import random

count = random.randint(1, 2)
j = 0
aa = [80042845,80025162,80035076,80025133,80025068,80024813,79986200,79935658,79933992,79783339,79747976,79747322,79734593,79734363,79706272,79700188,79725018,79724244]
while j < count:
    i = 0
    while i <= 8:
        k = random.randint(0,17)
        web.open_new_tab('https://blog.csdn.net/qian_youyou/article/details/'+str(aa[k]))
        i = i + 1
        time.sleep(3)
    else:
        time.sleep(20)
        os.system('taskkill /F /IM chrome.exe')
        # print 'time webbrower closed'

    j = j + 1

相關推薦

[爬蟲]python自動呼叫瀏覽器訪問網頁增加訪問量

該程式主要是為了增長訪問量而寫的,主要針對一些訪問量與使用者資訊無關的網頁,比如CSDN。當然前提是python安裝相應的庫。原理很簡單,沒有用到什麼高階的爬蟲技術,沒有用到正則表示式什麼的。其實就是呼叫你的瀏覽器,然後程式自動幫你開啟你的部落格網頁,隔一段時間自動關閉,以此

python+selenium呼叫瀏覽器(IE-Chrome-Firefox)實現爬蟲功能

    好記性不如爛筆頭,今天把selenium呼叫瀏覽器操作總結一下。     首先,得先明確,為什麼要採用selenium來模擬登陸網頁。最主要的原因我認為還是在於通過這種模擬登入方式獲取的頁面html程式碼,可以把js裡的內容也獲取到,而通過urllib方式模擬登入的

瀏覽器訪問網頁的詳細內部過程

orm 相同 下層 tin mtp 這一 不同的 end osi 我們來看當我們在瀏覽器輸入http://www.mytest.com:81/mytest/index.html,幕後所發生的一切。 首先http是一個應用層的協議,在這個層的協議,只是一種通訊規範,也就是因為

瀏覽器訪問網頁流程

從我們輸入URL並按下回車鍵到看到網頁結果之間發生了什麼?換句話說,一張網頁,要經歷怎樣的過程,才能抵達使用者面前?下面來從一些細節上面嘗試一下探尋裡面的祕密。前言:鍵盤與硬體中斷說到輸入URL,當然是從手敲鍵盤開始。對於鍵盤,生活中用到的最常見的鍵盤有兩種:薄膜鍵盤、機械鍵

Python中如何獲得訪問網頁所返回的cookie

http://www.crifan.com/get_cookie_from_web_response_in_python/ 用Python指令碼模擬登陸百度空間。 需要先獲得最開始登陸的百度空間網頁所返回的cookie。 【解決過程】 1.搜了一番,最後參考這個:

手機端微信掃描二維碼直接打開外部瀏覽器訪問網頁的解決辦法

mic ont 我們 提高自己 微信跳轉 4gl 復制 png itl 想必大家會經常碰到網頁鏈接在微信內無法打開和微信內無法打開app下載頁的情況。通常這種情況微信會給個提示 “已停止訪問該網址” ,那麽導致這個情況的因素有哪些呢,主要有以下四點

Python模擬瀏覽器實現網頁訪問

Python 模擬瀏覽器訪問 模擬瀏覽器請求數據: import socket # 創建TCP鏈接 tcp_socket = socket.socket(socket.AF_INET, socket.SOCK_STREAM) # DNS 解析和鏈接HTTP服務器 tcp_socket.connect

python 爬蟲 訪問網頁之request與requests:

標籤(空格分隔): 9.23 一、訪問獲取網頁的基本方法: 準備頭部和代理 user_agent = [ #準備頭部,列表 "Mozilla/5.0 (Macintosh; U; Intel Mac OS X 10_6_8; en-us) Apple

Python實現自動訪問網頁

import urllib.request import requests import time import ssl import random def openUrl(ip, agent):

爬蟲】Scrapy 爬取excel中500個網址首頁,使用Selenium模仿使用者瀏覽器訪問,將網頁title、url、文字內容組成的item儲存至json檔案

建立含有網址首頁的excel檔案 host_tag_網站名稱_主域名_子域名.xlsx 編輯讀取excel檔案的工具類專案FileUtils 新建專案FileUtils 編輯file_utils.py # -*- coding: utf-8 -*- """

366API在線免費實現微信內打開網頁url自動跳轉外部瀏覽器訪問的功能

打開 -c 需要 復制 www data- img 遇到 pan 前言 現如今微信對第三方推廣鏈接的檢測是越來越嚴格了,分享鏈接在微信中轉發經常會被攔截,一旦被攔截用戶在微信中識別二維碼就會提示“已停止訪問該網頁”,如此一來對外分享的二維碼基本就作

Python搭建呼叫本地dll的Windows服務(瀏覽器可以訪問,附測試dll64位和32位檔案)

一、前言說明   部落格宣告:此文連結地址https://www.cnblogs.com/Vrapile/p/14113683.html,請尊重原創,未經允許禁止轉載!!!   1. 功能簡述   (1)本文提供生成好的測試dll檔案,提供用Python呼叫dll生成windows服務介面的方法,在瀏覽器可以

nginx解決瀏覽器訪問http自動轉向https問題

etc oca pass toc col cer var proto blog nginx配置文件如下: server { listen 443 ssl http2; server_name zt.test.com; ssl on;

用chrome模擬微信瀏覽器訪問需要OAuth2.0網頁授權的頁面

mil col cnblogs bre letter 型號 默認 刷新 build 現在很流行微信網頁小遊戲,用html5制作的小遊戲移過來,可以放到微信瀏覽器中打開,關鍵是可以做成微信分享朋友圈的形式,大大提高遊戲的傳播,增強好友的遊戲互動。 微信瀏覽器中打開網頁遊戲效

python爬蟲之真實世界中的網頁解析

爬蟲 兩種 del http協議 head 常用 nbsp 是我 返回 Request和Response Request是我們平常瀏覽網頁,向網站所在的服務器發起請求,而服務器收到請求後,返回給我們的回應就是Response,這種行為就稱為HTTP協議,也就是客戶端(瀏覽器

[Python爬蟲]使用Selenium操作瀏覽器訂購火車票

cse input 相關 動態網頁 直接 教程 put vba 基礎 這個專題主要說的是Python在爬蟲方面的應用,包括爬取和處理部分 [Python爬蟲]使用Python爬取動態網頁-騰訊動漫(Selenium) [Python爬蟲]使用Python爬取靜態網頁-鬥魚直

aliyun linux下寫python flask,無法通過瀏覽器訪問公網ip

tail 操作系統 結果 出現 blog mage linux下 ubunt 服務器 出現的問題是: 寫了一個基於flask框架的輸出helloworld的.py程序,是在aliyun服務器上寫的,基於ubuntu的操作系統。 寫的代碼是這樣的: 但是在瀏覽器訪問時

谷歌瀏覽器修改cookie訪問網頁的小插件——EditsThisCookie

edits tst 不能 成績 存在 的人 wid 鍵值 eight cookie是服務器用來區分不同的瀏覽器客戶端的,比如學生A和B同一時段用各自的電腦訪問學校訪問學校的教務系統查看成績,登錄之後,訪問同一頁面確出來不同的信息,並且不能查看對方的信息,這就是因為服務器用利

Mac 下安裝python3.7 + pip 利用 chrome + chromedriver + selenium 自動打開網頁自動點擊訪問指定頁面

pytho org 選擇 指定 fin usr www. 簡單 info 1、安裝python3.7https://www.python.org/downloads/release/python-370/選擇了這個版本,直接默認下一步 2、安裝pipcurl https:

Python 爬蟲技巧1 | 將爬取網頁中的相對路徑轉換為絕對路徑

1.背景: 在爬取網頁中的過程中,我對目前爬蟲專案後端指令碼中拼接得到絕對路徑的方法很不滿意,今天很無意瞭解到在python3 的 urllib.parse模組對這個問題有著非常完善的解決策略,真的是上天有眼,感動! 2.urllib.parse模組 This module define