1. 程式人生 > >Python3抓取頁面資訊,網路程式設計,簡單傳送QQ郵件

Python3抓取頁面資訊,網路程式設計,簡單傳送QQ郵件

資料收集,資料整理,資料描述,資料分析

# coding=utf-8
import sys
import urllib.request

req = urllib.request.Request('https://www.baidu.com')
response = urllib.request.urlopen(req)
the_page=response.read()
type=sys.getfilesystemencoding() #轉換成本地系統編碼


print(the_page.decode(type))

這裡寫圖片描述

# coding=utf-8
import sys
import urllib.request

page_url="http://image.baidu.com/search/index?tn=baiduimage&ct=201326592&lm=-1&cl=2&ie=gbk&word=%B7
%E7%BE%B0%CD%BC%C6%AC&fr=ala&ala=1&alatpl=others&pos=0"
#req = urllib.request.Request(page_url) #response = urllib.request.urlopen(req) response = urllib.request.urlopen(page_url) the_page=response.read() #type=sys.getfilesystemencoding() #轉換成本地系統編碼 # print(the_page.decode(type)) print
(the_page.decode("utf-8"))

這裡寫圖片描述

UnicodeDecodeError 編碼錯誤

# coding=utf-8
import sys
import urllib.request

page_url="http://image.baidu.com/search/index?tn=baiduimage&ct=201326592&lm=-1&cl=2&ie=gbk&word=%B7%E7%BE%B0%CD%BC%C6%AC&fr=ala&ala=1&alatpl=others&pos=0"

req = urllib.request.Request(page_url)

response = urllib.request.urlopen(req)

the_page=response.read
() type=sys.getfilesystemencoding() #轉換成本地系統編碼 print(the_page.decode("utf-8"))

這裡寫圖片描述

這裡寫圖片描述

import socket
import sys

serversocket = socket.socket(socket.AF_INET,socket.SOCK_STREAM)


host = socket.gethostname()

port = 9993

serversocket.bind((host,port))

serversocket.listen(5)

while True:

    clientsocket,addr = serversocket.accept()
    print("link to address:%s"%str(addr))

    msg="welcom to here!"+"\r\n"
    clientsocket.send(msg.encode("utf-8"))
    clientsocket.close()

這裡寫圖片描述

import socket
import sys

s= socket.socket(socket.AF_INET,socket.SOCK_STREAM)

host = socket.gethostname()

port=9993

s.connect((host,port))

msg = s.recv(1024)

s.close()
print(msg.decode('utf-8'))

這裡寫圖片描述

要想能在第三方QQ傳送郵件必須獲得授權碼
獲得授權碼方法

import smtplib 
from email.mime.text import MIMEText

__user='自己郵箱@qq.com'
__pwd = '你的授權碼'
__to = '對方郵箱@qq.com'

msg = MIMEText('Text')
msg['Subject'] = "hello good morning!"
msg['From']  = __user
msg['To'] = __to


try:
    s = smtplib.SMTP_SSL("smtp.qq.com",465)
    s.login(__user,__pwd)
    s.sendmail(__user,__to,msg.as_string())
    s.quit()
    print("Success!")
except smtplib.SMTPException as e:
    print("Failed,%s"%e)

這裡寫圖片描述

相關推薦

Python3頁面資訊網路程式設計簡單傳送QQ郵件

資料收集,資料整理,資料描述,資料分析 # coding=utf-8 import sys import urllib.request req = urllib.request.Request(

爬蟲requests庫簡單頁面資訊功能實現(Python)

import requests import re, json,time,random from requests import RequestException UserAgentList = [ "Mozilla/5.0 (Windows NT 6.1; WO

一個簡單的Jsoup頁面資訊的例子

簡介: jsoup 是一款Java 的HTML解析器,可直接解析某個URL地址、HTML文字內容。它提供了一套非常省力的API,可通過DOM,CSS以及類似於jQuery的操作方法來取出和操作資料。在本文,本人將教大家如何使用jsoup抓取一些簡單的頁面資訊準備:

遠端頁面資訊並解析XML

XmlTransfer.java  負責連結對方伺服器 package untitled1; import java.net.URL;import java.net.URLConnection;import java.net.HttpURLConnection;import

《瘋狂Java講義》讀書筆記(十):多執行緒網路程式設計類載入機制與反射

第十六章:多執行緒1、一般而言,程序包含如下3個特徵:獨立性,動態性,併發性。併發性和並行性是兩個概念,並行指同一時刻,有多條指令在多個處理器上同時執行;併發指同一時刻只能有一條指令執行,但多個程序指令

python3 簡書增加瀏覽量

訪問簡書實現重新整理訪問次數,什麼都不說直接上程式碼 (一) # -*- coding:utf-8 -*- import sys import random import requests import pycurl import urllib import json import re i

嵌入式linux網路程式設計網路資訊檢索函式域名解析gethostbyname()網路屬性設定setsockopt()網路超時優化心跳檢測

文章目錄 1,網路資訊檢索函式 2,域名解析 2.1,gethostbyname() 2.2,gethostbyaddr() 2.3 錯誤處理 herror()、hstrerror() 2.4 釋放hostent結構體end

嵌入式linux網路程式設計TCP、IP協議原理wireshark包工具乙太網頭(Ethernet header)IP頭TCP頭三次握手四次握手UDP頭

文章目錄 1,wireshark抓包工具 1.1,wireshark安裝 1.2,wireshark啟動 1.2.1,出現錯誤警告 1.2.2,解決方案 2,常用除錯測試工具 3,TCP

網路爬蟲在頁面超時時候應該怎麼處理?

我們可以設定一個超時時間,在發起請求的這個時間超過這個設定時間後丟擲異常,我們對其進行處理 我在這裡簡單寫一個 demo: from urllib import request from urllib import error import socket try:

Python網路爬蟲之訂餐資訊

         本文以大眾點評網為例,獲取頁面的餐館資訊,以達到練習使用python的目的。              1.抓取大眾點評網中關村附近的餐館有哪些 import urllib.request import re def fetchFood(url):

python網路爬蟲--股票資訊到Mysql

1.建表mysql -u root -p 123456create database test default character set utf8;create table stocks --a股(  code varchar(10) comment '程式碼',  nam

nodejs + request + cheerio 頁面指定的資訊

專案是建立在在express 框架下   express可參考 http://www.expressjs.com.cn/starter/hello-world.html 1.引入cheerio模組  npm install --save cheerio 2. 引入icon

python3杭州房價資訊

因為馬上要去杭州,杭州房價去年漲的太厲害了,現在政策比較多看不清杭州房價的形式,所以想寫個爬蟲將杭州房產的交易資訊做個記錄。 準備階段 自己的伺服器用的CentOS,上面裝了python3,因為要連線資料庫,需要安裝psycopg2,於是 py

網路爬蟲初步:從一個入口連結開始不斷頁面中的網址併入庫

前言:   在上一篇《網路爬蟲初步:從訪問網頁到資料解析》中,我們討論瞭如何爬取網頁,對爬取的網頁進行解析,以及訪問被拒絕的網站。在這一篇部落格中,我們可以來了解一下拿到解析的資料可以做的事件。在這篇部落格中,我主要是說明要做的兩件事,一是入庫,二是遍歷拿到的連結繼續訪問。

字母數字窮舉排列組合域名位數遞增網路爬蟲網頁

List<List<string>> res = Generate("abcdefghijklmnopqrstuvwxyz0123456789-"); Console.WriteLine("Count = "

使用python爬蟲頁面之後頁面儲存到Mysql資料庫中

 #首先抓取html頁面內容,為了安全起見,有關url內容和mysql連線內容都以星號代替 headers = {'User-Agent':'Mozilla/5.0 (Windows; U; Windows NT 6.1; en-US; rv:1.9.1.6) Gecko/

搭建谷歌瀏覽器無頭模式頁面服務laravel->php->python->docker !!!

 背景: 公司管理系統需要獲取企業微信頁面的配置引數如企業名、logo、人數等資訊並操作,來隱藏相關敏感資訊並自定義簡化企業號配置流程 第一版已經實現了掃碼登入獲取cookie,使用該cookie就能獲取合法身份隨意請求頁面和介面,所以第一版的模擬操作主要是抓介面,有介面就用沒有就沒的用了 第

PHP網路爬蟲實踐:百度搜索結果並分析資料結構

百度的搜尋引擎有反爬蟲機制,我先直接用guzzle試試水。程式碼如下: <?php /** * Created by Benjiemin * Date: 2020/3/5 * Time: 14:58 */ require ('./vendor/autoload.php'); use QL\Qu

.NET數據範例 頁面上所有的鏈接

object lar url www box 時間 amr 發布 .org 原文發布時間為:2009-11-15 —— 來源於本人的百度文章 [由搬家工具導入].NET抓取数据范例 

python&amp;php數據、爬蟲分析與中介有網址案例

網絡 數據抓取 不定 pytho span article 抓取 取數據 data- 近期在做一個網絡爬蟲程序。後臺使用python不定時去抓取數據。前臺使用php進行展示 站點是:http://se.dianfenxiang.com python&a