Python3抓取頁面資訊,網路程式設計,簡單傳送QQ郵件
資料收集,資料整理,資料描述,資料分析
# coding=utf-8
import sys
import urllib.request
req = urllib.request.Request('https://www.baidu.com')
response = urllib.request.urlopen(req)
the_page=response.read()
type=sys.getfilesystemencoding() #轉換成本地系統編碼
print(the_page.decode(type))
# coding=utf-8
import sys
import urllib.request
page_url="http://image.baidu.com/search/index?tn=baiduimage&ct=201326592&lm=-1&cl=2&ie=gbk&word=%B7 %E7%BE%B0%CD%BC%C6%AC&fr=ala&ala=1&alatpl=others&pos=0"
#req = urllib.request.Request(page_url)
#response = urllib.request.urlopen(req)
response = urllib.request.urlopen(page_url)
the_page=response.read()
#type=sys.getfilesystemencoding() #轉換成本地系統編碼
# print(the_page.decode(type))
print (the_page.decode("utf-8"))
UnicodeDecodeError 編碼錯誤
# coding=utf-8
import sys
import urllib.request
page_url="http://image.baidu.com/search/index?tn=baiduimage&ct=201326592&lm=-1&cl=2&ie=gbk&word=%B7%E7%BE%B0%CD%BC%C6%AC&fr=ala&ala=1&alatpl=others&pos=0"
req = urllib.request.Request(page_url)
response = urllib.request.urlopen(req)
the_page=response.read ()
type=sys.getfilesystemencoding() #轉換成本地系統編碼
print(the_page.decode("utf-8"))
import socket
import sys
serversocket = socket.socket(socket.AF_INET,socket.SOCK_STREAM)
host = socket.gethostname()
port = 9993
serversocket.bind((host,port))
serversocket.listen(5)
while True:
clientsocket,addr = serversocket.accept()
print("link to address:%s"%str(addr))
msg="welcom to here!"+"\r\n"
clientsocket.send(msg.encode("utf-8"))
clientsocket.close()
import socket
import sys
s= socket.socket(socket.AF_INET,socket.SOCK_STREAM)
host = socket.gethostname()
port=9993
s.connect((host,port))
msg = s.recv(1024)
s.close()
print(msg.decode('utf-8'))
要想能在第三方QQ傳送郵件必須獲得授權碼
獲得授權碼方法
import smtplib
from email.mime.text import MIMEText
__user='自己郵箱@qq.com'
__pwd = '你的授權碼'
__to = '對方郵箱@qq.com'
msg = MIMEText('Text')
msg['Subject'] = "hello good morning!"
msg['From'] = __user
msg['To'] = __to
try:
s = smtplib.SMTP_SSL("smtp.qq.com",465)
s.login(__user,__pwd)
s.sendmail(__user,__to,msg.as_string())
s.quit()
print("Success!")
except smtplib.SMTPException as e:
print("Failed,%s"%e)
相關推薦
Python3抓取頁面資訊,網路程式設計,簡單傳送QQ郵件
資料收集,資料整理,資料描述,資料分析 # coding=utf-8 import sys import urllib.request req = urllib.request.Request(
爬蟲requests庫簡單抓取頁面資訊功能實現(Python)
import requests import re, json,time,random from requests import RequestException UserAgentList = [ "Mozilla/5.0 (Windows NT 6.1; WO
一個簡單的Jsoup抓取頁面資訊的例子
簡介: jsoup 是一款Java 的HTML解析器,可直接解析某個URL地址、HTML文字內容。它提供了一套非常省力的API,可通過DOM,CSS以及類似於jQuery的操作方法來取出和操作資料。在本文,本人將教大家如何使用jsoup抓取一些簡單的頁面資訊準備:
遠端抓取頁面資訊並解析XML
XmlTransfer.java 負責連結對方伺服器 package untitled1; import java.net.URL;import java.net.URLConnection;import java.net.HttpURLConnection;import
《瘋狂Java講義》讀書筆記(十):多執行緒,網路程式設計,類載入機制與反射
第十六章:多執行緒1、一般而言,程序包含如下3個特徵:獨立性,動態性,併發性。併發性和並行性是兩個概念,並行指同一時刻,有多條指令在多個處理器上同時執行;併發指同一時刻只能有一條指令執行,但多個程序指令
python3 抓取簡書,增加瀏覽量
訪問簡書實現重新整理訪問次數,什麼都不說直接上程式碼 (一) # -*- coding:utf-8 -*- import sys import random import requests import pycurl import urllib import json import re i
嵌入式linux網路程式設計,網路資訊檢索函式,域名解析gethostbyname(),網路屬性設定setsockopt(),網路超時優化,心跳檢測
文章目錄 1,網路資訊檢索函式 2,域名解析 2.1,gethostbyname() 2.2,gethostbyaddr() 2.3 錯誤處理 herror()、hstrerror() 2.4 釋放hostent結構體end
嵌入式linux網路程式設計,TCP、IP協議原理,wireshark抓包工具,乙太網頭(Ethernet header),IP頭,TCP頭,三次握手,四次握手,UDP頭
文章目錄 1,wireshark抓包工具 1.1,wireshark安裝 1.2,wireshark啟動 1.2.1,出現錯誤警告 1.2.2,解決方案 2,常用除錯測試工具 3,TCP
網路爬蟲在抓取頁面超時時候應該怎麼處理?
我們可以設定一個超時時間,在發起請求的這個時間超過這個設定時間後丟擲異常,我們對其進行處理 我在這裡簡單寫一個 demo: from urllib import request from urllib import error import socket try:
Python網路爬蟲之抓取訂餐資訊
本文以大眾點評網為例,獲取頁面的餐館資訊,以達到練習使用python的目的。 1.抓取大眾點評網中關村附近的餐館有哪些 import urllib.request import re def fetchFood(url):
python網路爬蟲--抓取股票資訊到Mysql
1.建表mysql -u root -p 123456create database test default character set utf8;create table stocks --a股( code varchar(10) comment '程式碼', nam
nodejs + request + cheerio 抓取頁面指定的資訊
專案是建立在在express 框架下 express可參考 http://www.expressjs.com.cn/starter/hello-world.html 1.引入cheerio模組 npm install --save cheerio 2. 引入icon
python3抓取杭州房價資訊
因為馬上要去杭州,杭州房價去年漲的太厲害了,現在政策比較多看不清杭州房價的形式,所以想寫個爬蟲將杭州房產的交易資訊做個記錄。 準備階段 自己的伺服器用的CentOS,上面裝了python3,因為要連線資料庫,需要安裝psycopg2,於是 py
網路爬蟲初步:從一個入口連結開始不斷抓取頁面中的網址併入庫
前言: 在上一篇《網路爬蟲初步:從訪問網頁到資料解析》中,我們討論瞭如何爬取網頁,對爬取的網頁進行解析,以及訪問被拒絕的網站。在這一篇部落格中,我們可以來了解一下拿到解析的資料可以做的事件。在這篇部落格中,我主要是說明要做的兩件事,一是入庫,二是遍歷拿到的連結繼續訪問。
字母數字窮舉排列組合域名,位數遞增,網路爬蟲,網頁抓取
List<List<string>> res = Generate("abcdefghijklmnopqrstuvwxyz0123456789-"); Console.WriteLine("Count = "
使用python爬蟲抓取頁面之後,將頁面儲存到Mysql資料庫中
#首先抓取html頁面內容,為了安全起見,有關url內容和mysql連線內容都以星號代替 headers = {'User-Agent':'Mozilla/5.0 (Windows; U; Windows NT 6.1; en-US; rv:1.9.1.6) Gecko/
搭建谷歌瀏覽器無頭模式抓取頁面服務,laravel->php->python->docker !!!
背景: 公司管理系統需要獲取企業微信頁面的配置引數如企業名、logo、人數等資訊並操作,來隱藏相關敏感資訊並自定義簡化企業號配置流程 第一版已經實現了掃碼登入獲取cookie,使用該cookie就能獲取合法身份隨意請求頁面和介面,所以第一版的模擬操作主要是抓介面,有介面就用沒有就沒的用了 第
PHP網路爬蟲實踐:抓取百度搜索結果,並分析資料結構
百度的搜尋引擎有反爬蟲機制,我先直接用guzzle試試水。程式碼如下: <?php /** * Created by Benjiemin * Date: 2020/3/5 * Time: 14:58 */ require ('./vendor/autoload.php'); use QL\Qu
.NET抓取數據範例 抓取頁面上所有的鏈接
object lar url www box 時間 amr 發布 .org 原文發布時間為:2009-11-15 —— 來源於本人的百度文章 [由搬家工具導入].NET抓取数据范例
python&php數據抓取、爬蟲分析與中介,有網址案例
網絡 數據抓取 不定 pytho span article 抓取 取數據 data- 近期在做一個網絡爬蟲程序。後臺使用python不定時去抓取數據。前臺使用php進行展示 站點是:http://se.dianfenxiang.com python&a