正則表示式 re模組 re模組實用方法
一. 正則表示式
首先, 我們在網⻚上進行註冊或者登陸的時候經常能看到一些格式上的錯誤提示. 比如:你在註冊百度賬號的時候 輸入使用者名稱隨意的輸入系統會提示你. 你的賬號過長或者不允許使用中文等等操作. 那這種操作如果使用我們現有的知識點是可以完成的. 但是完成的效果並不好. 寫起來也不容易. 尤其是對郵箱的匹配. 電話號碼的匹配. 那正則表示式就是專門來處理理類似問題的一種表示式. 英⽂全稱: Regular Expression. 簡稱 regex或者re. 但你要知道我們在使⽤用python的re模組之前. 我們首先要對正則有一定的了解和認識. 就像我們使用time模組之前. 我們已經對時間有了一定的認識.
正則表示式是對字串操作的一種邏輯公式. 我們⼀般使用正則表示式對字串進行匹配和過濾.
使用正則的優缺點:
優點: 靈活, 功能性強, 邏輯性強.
缺點: 上手難. 一旦上手, 會愛上這個東西
工具: 各大文字編輯器一般都有正則匹配功能. 我們也可以去
http://tool.chinaz.com/regex/進行線上測試.
正則表示式由普通字元和元字元組成. 普通字元包含大小寫字母, 數字. 在匹配普通字元
的時候我們直接寫就可以了. 比如"abc" 匹配的就是"abc". 我們如果用python也可以實現相
同的效果. 所以普通字元沒什麼好說的. 重點在元字元上.
元字元: 元字元才是正則表示式的靈魂. 元字元中的內容太多了, 在這里我們只介一些
常用的.
1. 字元組
字元組很簡單用[]括起來. 在[]中出現的內容會被匹配. 例如:[abc] 匹配a或b或c
如果字元組中的內容過多還可以使用- , 例如: [a-z] 匹配a到z之間的所有字⺟ [0-9]
匹配所有阿拉伯數字
2. 簡單元字元
基本的元字元. 這個東⻄網上一搜一大堆. 但是常用的就那麼幾個:
. 匹配除換行符以外的任意字元
\w 匹配字母或數字或下劃線
\s 匹配任意的空白符
\d 匹配數字
\n 匹配一個換行符
\t 匹配一個製表符
\b 匹配一個單詞的結尾
^ 匹配字串的開始
$ 匹配字元串的結尾
\W 匹配⾮字⺟或數字或下劃線
\D 匹配⾮數字
\S 匹配⾮空⽩符
a |b 匹配字元a或字元
() 匹配括號內的表示式,也表示一個組
[...] 匹配字元組中的字元
[^...] 匹配除了字元組中字元的所有字元
..............還有很多,自己上網搜...........
3. 量詞
我們到目前匹配的所有內容都是單⼀⽂字元號. 那如何一次性匹配很多個字元呢,
我們要用到量詞
* 重複零次或更多次
+ 重複⼀次或更多次
? 重複零次或一次
{n} 重複n次
{n,} 重複n次或更多次
{n,m} 重複n到m次
4. 惰性匹配和貪婪匹配
在量詞中的*, +,{} 都屬於貪婪匹配. 就是儘可能多的匹配到結果.
str: 麻花藤昨天讓英雄聯盟關服了
reg: 麻花藤.*
此時匹配的是整句話
在使用.*後⾯如果加了? 則是儘可能的少匹配. 表示惰性匹配
str: 麻花藤昨天讓英雄聯盟關服了
reg: 麻花藤.*?
此時匹配的是 麻花藤
str: <div>胡辣湯</div>
reg: <.*>
結果: <div>胡辣湯</div>
str: <div>胡辣湯</div>
reg: <.*?>
結果:
<div>
.*?x的特殊含義 找到下一個x為止.
str: abcdefgxhijklmn
reg: .*?x
結果:abcdefgx
5. 分組
在正則中使用()進行分組. 比如. 我們要匹配一個相對複雜的身份證號. ⾝份證號分
成兩種. 老的身份證號有15位. 新的身份證號有18位. 並且新的⾝份證號結尾有可能是x.
給出以下正則:
^[1-9]\d{13,16}[0-9x]$ #不行
^[1-9]\d{14}(\d{2}[0-9x])?$ #可用
^([1-9]\d{16}[0-9x]|[1-9]\d{14})$ #不可用
6. 轉義
在正則表示式中, 有很多有特殊意義的是元字元, 比如\n和\s等,如果要在正則中匹
配正常的"\n"而不是"換行符"就需要對"\"進行轉義, 變成'\\'.在python中, 無論是正則表示式, 還
是待匹配的內容, 都是以字元串的形式出現的, 在字元串中\也有特殊的含義, 本身還需要轉
義. 所以如果匹配一次"\n", 字元串中要寫成'\\n', 那麼正則里就要寫成"\\\\n",這樣就太麻煩了.
這個時候我們就用到了r'\n'這個概念, 此時的正則是r'\\n'就可以了.
二. re模組
# re的工作是在python中執行正則表示式
re模組是python提供的一套關於處理正則表示式的模組. 核心功能有四個:
1. findall 查詢所有. 返回list
lst = re.findall("m", "mai le fo len, mai ni mei!")
print(lst) # ['m', 'm', 'm']
lst = re.findall(r"\d+", "5點之前. 你要給我5000萬")
print(lst) # ['5', '5000']
2. search 會進行匹配. 但是如果匹配到了第一個結果. 就會返回這個結果. 如果匹配不
上search返回的則是None
ret = re.search(r'\d', '5點之前. 你要給我5000萬').group()
print(ret) # 5
3. match 只能從字元串的開頭進行匹配
ret = re.match('a', 'abc').group()
print(ret) # a
4. finditer 和findall差不多. 只不過這時返回的是迭代器
it = re.finditer("m", "mai le fo len, mai ni mei!")
for el in it:
print(el.group()) # 依然需要分組
5. 其他操作
ret = re.split('[ab]', 'qwerafjbcd') # 先按'a'分割得到'qwer'和'fjbcd',再
對'qwer'和'fjbcd'分別按'b'分割
print(ret) # ['qwer', 'fj', 'cd']
ret = re.sub(r"\d+", "_sb_", "alex250taibai250wusir250ritian38") # 把字串中的數字換成__sb__
print(ret) # alex_sb_taibai_sb_wusir_sb_ritian_sb_
ret = re.subn(r"\d+", "_sb_", "alex250taibai250wusir250ritian38") # 將數字替
換成'__sb__',返回元組(替換的結果,替換了多少次)
print(ret) # ('alex_sb_taibai_sb_wusir_sb_ritian_sb_', 4)
obj = re.compile(r'\d{3}') # 將正則表示式編譯成為一個 正則表示式物件, 規則要匹配的
是3個數字
ret = obj.search('abc123eeee') # 正則表示式物件呼叫search, 引數為待匹配的字串串
print(ret.group()) # 結果: 123
爬蟲重點:
obj = re.compile(r'(?P<id>\d+)(?P<name>e+)') # 從正則表示式匹配的內容每個組起名
字
ret = obj.search('abc123eeee') # 搜尋
print(ret.group()) # 結果: 123eeee
print(ret.group("id")) # 結果: 123 # 獲取id組的內容
print(ret.group("name")) # 結果: eeee # 獲取name組的內容
# 正則的常用操作 result = re.split("\d+", "寶寶110來找你了. 你回頭收拾收拾去119報道") print(result) 用正則替換 s = re.sub("\d+", "__sb__", "寶寶110來找你了. 你回頭收拾收拾去119報道") print(s) s = re.subn("\d+", "__sb__", "寶寶110來找你了. 你回頭收拾收拾去119報道") # 替換了xxx次 print(s) code = "for i in range(10): print(i)" c = compile(code, "", "exec") # 編譯 exec(c) # 快速執行 reg = re.compile(r"\d+") # 編譯了一段正則. 載入了一段正則 lst = reg.findall("呵呵, 寶寶才不去110呢.他要去120了") print(lst) re.findall(r"\d+", "呵呵, 寶寶才不去110呢.他要去120了") lst = re.findall(r"a(?:\d+)c", "a123456c") # 把括號python中的分組變成了原來正則表示式中的分組 print(lst)
6. 兩個坑
注意: 在re模組中和我們線上測試工具中的結果可能是不一樣的.
ret = re.findall('www.(baidu|oldboy).com', 'www.oldboy.com')
print(ret) # ['oldboy'] 這是因為findall會優先把匹配結果組里內容返回,如果想要匹
配結果,取消許可權即可
ret = re.findall('www.(?:baidu|oldboy).com', 'www.oldboy.com')
print(ret) # ['www.oldboy.com']
split里也有⼀個坑
ret=re.split("\d+","eva3egon4yuan")
print(ret) #結果 : ['eva', 'egon', 'yuan']
ret=re.split("(\d+)","eva3egon4yuan")
print(ret) #結果 : ['eva', '3', 'egon', '4', 'yuan']
#在匹配部分加上()之後所切出的結果是不同的,
#沒有()的沒有保留所匹配的項,但是有()的卻能夠保留了匹配的項,
#這個在某些需要保留匹配部分的使⽤過程是非常重要的。
這種優先順序的問題有時候會幫我們完成很多功能. 我們來看一個比較複雜的例子
import re
from urllib.request import urlopen
import ssl
# 幹掉數字簽名證書
ssl._create_default_https_context = ssl._create_unverified_context
def getPage(url):
response = urlopen(url)
return response.read().decode('utf-8')
def parsePage(s):
ret = re.findall(
'<div class="item">.*?<div class="pic">.*?<em .*?>(?P<id>\d+).*?
<span class="title">(?P<title>.*?)</span>'
'.*?<span class="rating_num" .*?>(?P<rating_num>.*?)</span>.*?<span>
(?P<comment_num>.*?)評價</span>', s, re.S)
return ret
def main(num):
url = 'https://movie.douban.com/top250?start=%s&filter=' % num
response_html = getPage(url)
ret = parsePage(response_html)
print(ret)
count = 0
for i in range(10): # 10頁
main(count)
count += 25
此時利用的就是分組之後. 匹配成功後獲取到的是分組後的結果. (?P<id>\d+) 此時當前
組所匹配的資料就會被分組到id組內. 此時程式可以改寫成:import ssl
import re
from urllib.request import urlopen
# ⼲掉數字簽名證書
ssl._create_default_https_context = ssl._create_unverified_context
def getPage(url):
response = urlopen(url)
return response.read().decode('utf-8')
def parsePage(s):
com = re.compile(
'<div class="item">.*?<div class="pic">.*?<em .*?>(?P<id>\d+).*?
<span class="title">(?P<title>.*?)</span>'
'.*?<span class="rating_num" .*?>(?P<rating_num>.*?)</span>.*?
<span>(?P<comment_num>.*?)評價</span>', re.S)
ret = com.finditer(s)
for i in ret:
yield {
"id": i.group("id"),
"title": i.group("title"),
"rating_num": i.group("rating_num"),
"comment_num": i.group("comment_num"),
}
def main(num):
url = 'https://movie.douban.com/top250?start=%s&filter=' % num
response_html = getPage(url)
ret = parsePage(response_html)
# print(ret)
f = open("move_info7", "a", encoding="utf8")
for obj in ret:
print(obj)
data = str(obj)
f.write(data + "\n")
count = 0
for i in range(10):
main(count)
count += 25
正則表示式和re模組就說這麼多. 如果要把正則所有的內容全部講清楚講明白, ⾄少要一週
以上的時間. 對於我們日常使用⽽言. 上述知識點已經夠用了. 如果碰到一些極端情況建議想
辦法分部處理. 先對字元串進⾏行拆分. 然後再考慮用正則.
# 爬取電影天堂 極其簡易版 from urllib.request import urlopen content = urlopen("https://www.dytt8.net/html/gndy/dyzz/20181219/57954.html").read().decode("gbk") # print(content) reg = r'<div id="Zoom">.*?片 名(?P<name>.*?)<br />◎年 代(?P<years>.*?)<br />.*?◎上映日期(?P<date>.*?)<br />'+ \ '.*?◎主 演(?P<main>.*?)◎簡 介.*?<td style="WORD-WRAP: break-word" bgcolor="#fdfddf"><a href="(?P<download>.*?)">' it = re.finditer(reg, content, re.S) # re.S 去掉.裡面的\n for el in it: print(el.group("name")) print(el.group("years")) print(el.group("date")) print(el.group("main").replace("<br /> ", ", ")) print(el.group("download"))