1. 程式人生 > >Python字元編碼與正則表示式指南

Python字元編碼與正則表示式指南

1. 字元編碼簡介

1.1. ASCII

ASCII(American Standard Code for Information Interchange),是一種單位元組的編碼。計算機世界裡一開始只有英文,而單位元組可以表示256個不同的字元,可以表示所有的英文字元和許多的控制符號。不過ASCII只用到了其中的一半(\x80以下),這也是MBCS得以實現的基礎。

1.2. MBCS

然而計算機世界裡很快就有了其他語言,單位元組的ASCII已無法滿足需求。後來每個語言就制定了一套自己的編碼,由於單位元組能表示的字元太少,而且同時也需要與ASCII編碼保持相容,所以這些編碼紛紛使用了多位元組來表示字元,如GBxxx

BIGxxx等等,他們的規則是,如果第一個位元組是\x80以下,則仍然表示ASCII字元;而如果是\x80以上,則跟下一個位元組一起(共兩個位元組)表示一個字元,然後跳過下一個位元組,繼續往下判斷。

這裡,IBM發明了一個叫Code Page的概念,將這些編碼都收入囊中並分配頁碼,GBK是第936頁,也就是CP936。所以,也可以使用CP936表示GBK。

MBCS(Multi-Byte Character Set)是這些編碼的統稱。目前為止大家都是用了雙位元組,所以有時候也叫做DBCS(Double-Byte Character Set)。必須明確的是,MBCS並不是某一種特定的編碼,Windows里根據你設定的區域不同,MBCS指代不同的編碼,而Linux裡無法使用MBCS作為編碼。在Windows中你看不到MBCS這幾個字元,因為微軟為了更加洋氣,使用了ANSI

來嚇唬人,記事本的另存為對話方塊裡編碼ANSI就是MBCS。同時,在簡體中文Windows預設的區域設定裡,指代GBK。

1.3. Unicode

後來,有人開始覺得太多編碼導致世界變得過於複雜了,讓人腦袋疼,於是大家坐在一起拍腦袋想出來一個方法:所有語言的字元都用同一種字符集來表示,這就是Unicode。

最初的Unicode標準UCS-2使用兩個位元組表示一個字元,所以你常常可以聽到Unicode使用兩個位元組表示一個字元的說法。但過了不久有人覺得256*256太少了,還是不夠用,於是出現了UCS-4標準,它使用4個位元組表示一個字元,不過我們用的最多的仍然是UCS-2。

UCS(Unicode Character Set)還僅僅是字元對應碼位的一張表而已,比如"漢"這個字的碼位是6C49。字元具體如何傳輸和儲存則是由UTF

(UCS Transformation Format)來負責。

一開始這事很簡單,直接使用UCS的碼位來儲存,這就是UTF-16,比如,"漢"直接使用\x6C\x49儲存(UTF-16-BE),或是倒過來使用\x49\x6C儲存(UTF-16-LE)。但用著用著美國人覺得自己吃了大虧,以前英文字母只需要一個位元組就能儲存了,現在大鍋飯一吃變成了兩個位元組,空間消耗大了一倍……於是UTF-8橫空出世。

UTF-8是一種很彆扭的編碼,具體表現在他是變長的,並且相容ASCII,ASCII字元使用1位元組表示。然而這裡省了的必定是從別的地方摳出來的,你肯定也聽說過UTF-8裡中文字元使用3個位元組來儲存吧?4個位元組儲存的字元更是在淚奔……(具體UCS-2是怎麼變成UTF-8的請自行搜尋)

另外值得一提的是BOM(Byte Order Mark)。我們在儲存檔案時,檔案使用的編碼並沒有儲存,開啟時則需要我們記住原先儲存時使用的編碼並使用這個編碼開啟,這樣一來就產生了許多麻煩。(你可能想說記事本開啟檔案時並沒有讓選編碼?不妨先開啟記事本再使用檔案 -> 開啟看看)而UTF則引入了BOM來表示自身編碼,如果一開始讀入的幾個位元組是其中之一,則代表接下來要讀取的文字使用的編碼是相應的編碼:

BOM_UTF8 '\xef\xbb\xbf'
BOM_UTF16_LE '\xff\xfe'
BOM_UTF16_BE '\xfe\xff'

並不是所有的編輯器都會寫入BOM,但即使沒有BOM,Unicode還是可以讀取的,只是像MBCS的編碼一樣,需要另行指定具體的編碼,否則解碼將會失敗。

你可能聽說過UTF-8不需要BOM,這種說法是不對的,只是絕大多數編輯器在沒有BOM時都是以UTF-8作為預設編碼讀取。即使是儲存時預設使用ANSI(MBCS)的記事本,在讀取檔案時也是先使用UTF-8測試編碼,如果可以成功解碼,則使用UTF-8解碼。記事本這個彆扭的做法造成了一個BUG:如果你新建文字檔案並輸入"奼塧"然後使用ANSI(MBCS)儲存,再開啟就會變成"漢a",你不妨試試 :)

2. Python2.x中的編碼問題

2.1. str和unicode

str和unicode都是basestring的子類。嚴格意義上說,str其實是位元組串,它是unicode經過編碼後的位元組組成的序列。對UTF-8編碼的str'漢'使用len()函式時,結果是3,因為實際上,UTF-8編碼的'漢' == '\xE6\xB1\x89'。

unicode才是真正意義上的字串,對位元組串str使用正確的字元編碼進行解碼後獲得,並且len(u'漢') == 1。

再來看看encode()和decode()兩個basestring的例項方法,理解了str和unicode的區別後,這兩個方法就不會再混淆了:

# coding: UTF-8
 
u = u'漢'
print repr(u) # u'\u6c49'
s = u.encode('UTF-8')
print repr(s) # '\xe6\xb1\x89'
u2 = s.decode('UTF-8')
print repr(u2) # u'\u6c49'
 
# 對unicode進行解碼是錯誤的
# s2 = u.decode('UTF-8')
# 同樣,對str進行編碼也是錯誤的
# u2 = s.encode('UTF-8')

需要注意的是,雖然對str呼叫encode()方法是錯誤的,但實際上Python不會丟擲異常,而是返回另外一個相同內容但不同id的str;對unicode呼叫decode()方法也是這樣。很不理解為什麼不把encode()和decode()分別放在unicode和str中而是都放在basestring中,但既然已經這樣了,我們就小心避免犯錯吧。

2.2. 字元編碼宣告

原始碼檔案中,如果有用到非ASCII字元,則需要在檔案頭部進行字元編碼的宣告,如下:

#-*- coding: UTF-8 -*-

實際上Python只檢查#、coding和編碼字串,其他的字元都是為了美觀加上的。另外,Python中可用的字元編碼有很多,並且還有許多別名,還不區分大小寫,比如UTF-8可以寫成u8。參見http://docs.python.org/library/codecs.html#standard-encodings

另外需要注意的是宣告的編碼必須與檔案實際儲存時用的編碼一致,否則很大機率會出現程式碼解析異常。現在的IDE一般會自動處理這種情況,改變聲明後同時換成宣告的編碼儲存,但文字編輯器控們需要小心 :)

2.3. 讀寫檔案

內建的open()方法開啟檔案時,read()讀取的是str,讀取後需要使用正確的編碼格式進行decode()。write()寫入時,如果引數是unicode,則需要使用你希望寫入的編碼進行encode(),如果是其他編碼格式的str,則需要先用該str的編碼進行decode(),轉成unicode後再使用寫入的編碼進行encode()。如果直接將unicode作為引數傳入write()方法,Python將先使用原始碼檔案宣告的字元編碼進行編碼然後寫入。

# coding: UTF-8
 
f = open('test.txt')
s = f.read()
f.close()
print type(s) # <type 'str'>
# 已知是GBK編碼,解碼成unicode
u = s.decode('GBK')
 
f = open('test.txt', 'w')
# 編碼成UTF-8編碼的str
s = u.encode('UTF-8')
f.write(s)
f.close()
另外,模組codecs提供了一個open()方法,可以指定一個編碼開啟檔案,使用這個方法開啟的檔案讀取返回的將是unicode。寫入時,如果引數是unicode,則使用open()時指定的編碼進行編碼後寫入;如果是str,則先根據原始碼檔案宣告的字元編碼,解碼成unicode後再進行前述操作。相對內建的open()來說,這個方法比較不容易在編碼上出現問題。
# coding: GBK
 
import codecs
 
f = codecs.open('test.txt', encoding='UTF-8')
u = f.read()
f.close()
print type(u) # <type 'unicode'>
 
f = codecs.open('test.txt', 'a', encoding='UTF-8')
# 寫入unicode
f.write(u)
 
# 寫入str,自動進行解碼編碼操作
# GBK編碼的str
s = '漢'
print repr(s) # '\xba\xba'
# 這裡會先將GBK編碼的str解碼為unicode再編碼為UTF-8寫入
f.write(s)
f.close()

2.4. 與編碼相關的方法

sys/locale模組中提供了一些獲取當前環境下的預設編碼的方法。

# coding:gbk
 
import sys
import locale
 
def p(f):
    print '%s.%s(): %s' % (f.__module__, f.__name__, f())
 
# 返回當前系統所使用的預設字元編碼
p(sys.getdefaultencoding)
 
# 返回用於轉換Unicode檔名至系統檔名所使用的編碼
p(sys.getfilesystemencoding)
 
# 獲取預設的區域設定並返回元祖(語言, 編碼)
p(locale.getdefaultlocale)
 
# 返回使用者設定的文字資料編碼
# 文件提到this function only returns a guess
p(locale.getpreferredencoding)
 
# \xba\xba是'漢'的GBK編碼
# mbcs是不推薦使用的編碼,這裡僅作測試表明為什麼不應該用
print r"'\xba\xba'.decode('mbcs'):", repr('\xba\xba'.decode('mbcs'))
 
#在筆者的Windows上的結果(區域設定為中文(簡體, 中國))
#sys.getdefaultencoding(): gbk
#sys.getfilesystemencoding(): mbcs
#locale.getdefaultlocale(): ('zh_CN', 'cp936')
#locale.getpreferredencoding(): cp936
#'\xba\xba'.decode('mbcs'): u'\u6c49'

3.一些建議

3.1. 使用字元編碼宣告,並且同一工程中的所有原始碼檔案使用相同的字元編碼宣告。

這點是一定要做到的。

3.2. 拋棄str,全部使用unicode。

按引號前先按一下u最初做起來確實很不習慣而且經常會忘記再跑回去補,但如果這麼做可以減少90%的編碼問題。如果編碼困擾不嚴重,可以不參考此條。

3.3. 使用codecs.open()替代內建的open()。

如果編碼困擾不嚴重,可以不參考此條。

3.4. 絕對需要避免使用的字元編碼:MBCS/DBCS和UTF-16。

這裡說的MBCS不是指GBK什麼的都不能用,而是不要使用Python里名為'MBCS'的編碼,除非程式完全不移植。

Python中編碼'MBCS'與'DBCS'是同義詞,指當前Windows環境中MBCS指代的編碼。Linux的Python實現中沒有這種編碼,所以一旦移植到Linux一定會出現異常!另外,只要設定的Windows系統區域不同,MBCS指代的編碼也是不一樣的。分別設定不同的區域執行2.4小節中的程式碼的結果:

#中文(簡體, 中國)
#sys.getdefaultencoding(): gbk
#sys.getfilesystemencoding(): mbcs
#locale.getdefaultlocale(): ('zh_CN', 'cp936')
#locale.getpreferredencoding(): cp936
#'\xba\xba'.decode('mbcs'): u'\u6c49'
 
#英語(美國)
#sys.getdefaultencoding(): UTF-8
#sys.getfilesystemencoding(): mbcs
#locale.getdefaultlocale(): ('zh_CN', 'cp1252')
#locale.getpreferredencoding(): cp1252
#'\xba\xba'.decode('mbcs'): u'\xba\xba'
 
#德語(德國)
#sys.getdefaultencoding(): gbk
#sys.getfilesystemencoding(): mbcs
#locale.getdefaultlocale(): ('zh_CN', 'cp1252')
#locale.getpreferredencoding(): cp1252
#'\xba\xba'.decode('mbcs'): u'\xba\xba'
 
#日語(日本)
#sys.getdefaultencoding(): gbk
#sys.getfilesystemencoding(): mbcs
#locale.getdefaultlocale(): ('zh_CN', 'cp932')
#locale.getpreferredencoding(): cp932
#'\xba\xba'.decode('mbcs'): u'\uff7a\uff7a'

可見,更改區域後,使用mbcs解碼得到了不正確的結果,所以,當我們需要使用'GBK'時,應該直接寫'GBK',不要寫成'MBCS'。

UTF-16同理,雖然絕大多數作業系統中'UTF-16'是'UTF-16-LE'的同義詞,但直接寫'UTF-16-LE'只是多寫3個字元而已,而萬一某個作業系統中'UTF-16'變成了'UTF-16-BE'的同義詞,就會有錯誤的結果。實際上,UTF-16用的相當少,但用到的時候還是需要注意。

4. 正則表示式基礎

4.1. 簡單介紹

正則表示式並不是Python的一部分。正則表示式是用於處理字串的強大工具,擁有自己獨特的語法以及一個獨立的處理引擎,效率上可能不如str自帶的方法,但功能十分強大。得益於這一點,在提供了正則表示式的語言裡,正則表示式的語法都是一樣的,區別只在於不同的程式語言實現支援的語法數量不同;但不用擔心,不被支援的語法通常是不常用的部分。如果已經在其他語言裡使用過正則表示式,只需要簡單看一看就可以上手了。

下圖展示了使用正則表示式進行匹配的流程:


正則表示式的大致匹配過程是:依次拿出表示式和文字中的字元比較,如果每一個字元都能匹配,則匹配成功;一旦有匹配不成功的字元則匹配失敗。如果表示式中有量詞或邊界,這個過程會稍微有一些不同,但也是很好理解的,看下圖中的示例以及自己多使用幾次就能明白。

下圖列出了Python支援的正則表示式元字元和語法:

4.2. 數量詞的貪婪模式與非貪婪模式

正則表示式通常用於在文字中查詢匹配的字串。Python裡數量詞預設是貪婪的(在少數語言裡也可能是預設非貪婪),總是嘗試匹配儘可能多的字元;非貪婪的則相反,總是嘗試匹配儘可能少的字元。例如:正則表示式"ab*"如果用於查詢"abbbc",將找到"abbb"。而如果使用非貪婪的數量詞"ab*?",將找到"a"。

4.3. 反斜槓的困擾

與大多數程式語言相同,正則表示式裡使用"\"作為轉義字元,這就可能造成反斜槓困擾。假如你需要匹配文字中的字元"\",那麼使用程式語言表示的正則表示式裡將需要4個反斜槓"\\\\":前兩個和後兩個分別用於在程式語言裡轉義成反斜槓,轉換成兩個反斜槓後再在正則表示式裡轉義成一個反斜槓。Python裡的原生字串很好地解決了這個問題,這個例子中的正則表示式可以使用r"\\"表示。同樣,匹配一個數字的"\\d"可以寫成r"\d"。有了原生字串,你再也不用擔心是不是漏寫了反斜槓,寫出來的表示式也更直觀。

4.4. 匹配模式

正則表示式提供了一些可用的匹配模式,比如忽略大小寫、多行匹配等,這部分內容將在Pattern類的工廠方法re.compile(pattern[, flags])中一起介紹。

5. re模組

5.1. 開始使用re

Python通過re模組提供對正則表示式的支援。使用re的一般步驟是先將正則表示式的字串形式編譯為Pattern例項,然後使用Pattern例項處理文字並獲得匹配結果(一個Match例項),最後使用Match例項獲得資訊,進行其他的操作。

# encoding: UTF-8
import re
 
# 將正則表示式編譯成Pattern物件
pattern = re.compile(r'hello')
 
# 使用Pattern匹配文字,獲得匹配結果,無法匹配時將返回None
match = pattern.match('hello world!')
 
if match:
    # 使用Match獲得分組資訊
    print match.group()
 
### 輸出 ###
# hello

re.compile(strPattern[, flag]):

這個方法是Pattern類的工廠方法,用於將字串形式的正則表示式編譯為Pattern物件。 第二個引數flag是匹配模式,取值可以使用按位或運算子'|'表示同時生效,比如re.I | re.M。另外,你也可以在regex字串中指定模式,比如re.compile('pattern', re.I | re.M)與re.compile('(?im)pattern')是等價的。
可選值有:

  • re.I(re.IGNORECASE): 忽略大小寫(括號內是完整寫法,下同)
  • M(MULTILINE): 多行模式,改變'^'和'$'的行為(參見上圖)
  • S(DOTALL): 點任意匹配模式,改變'.'的行為
  • L(LOCALE): 使預定字元類 \w \W \b \B \s \S 取決於當前區域設定
  • U(UNICODE): 使預定字元類 \w \W \b \B \s \S \d \D 取決於unicode定義的字元屬性
  • X(VERBOSE): 詳細模式。這個模式下正則表示式可以是多行,忽略空白字元,並可以加入註釋。以下兩個正則表示式是等價的:
a = re.compile(r"""\d +  # the integral part
                   \.    # the decimal point
                   \d *  # some fractional digits""", re.X)
b = re.compile(r"\d+\.\d*")
re提供了眾多模組方法用於完成正則表示式的功能。這些方法可以使用Pattern例項的相應方法替代,唯一的好處是少寫一行re.compile()程式碼,但同時也無法複用編譯後的Pattern物件。這些方法將在Pattern類的例項方法部分一起介紹。如上面這個例子可以簡寫為:
m = re.match(r'hello', 'hello world!')
print m.group()

re模組還提供了一個方法escape(string),用於將string中的正則表示式元字元如*/+/?等之前加上轉義符再返回,在需要大量匹配元字元時有那麼一點用。

5.2. Match

Match物件是一次匹配的結果,包含了很多關於此次匹配的資訊,可以使用Match提供的可讀屬性或方法來獲取這些資訊。

屬性:

  1. string: 匹配時使用的文字。
  2. re: 匹配時使用的Pattern物件。
  3. pos: 文字中正則表示式開始搜尋的索引。值與Pattern.match()和Pattern.seach()方法的同名引數相同。
  4. endpos: 文字中正則表示式結束搜尋的索引。值與Pattern.match()和Pattern.seach()方法的同名引數相同。
  5. lastindex: 最後一個被捕獲的分組在文字中的索引。如果沒有被捕獲的分組,將為None。
  6. lastgroup: 最後一個被捕獲的分組的別名。如果這個分組沒有別名或者沒有被捕獲的分組,將為None。

方法:

  1. group([group1, …]):
    獲得一個或多個分組截獲的字串;指定多個引數時將以元組形式返回。group1可以使用編號也可以使用別名;編號0代表整個匹配的子串;不填寫引數時,返回group(0);沒有截獲字串的組返回None;截獲了多次的組返回最後一次截獲的子串。
  2. groups([default]):
    以元組形式返回全部分組截獲的字串。相當於呼叫group(1,2,…last)。default表示沒有截獲字串的組以這個值替代,預設為None。
  3. groupdict([default]):
    返回以有別名的組的別名為鍵、以該組截獲的子串為值的字典,沒有別名的組不包含在內。default含義同上。
  4. start([group]):
    返回指定的組截獲的子串在string中的起始索引(子串第一個字元的索引)。group預設值為0。
  5. end([group]):
    返回指定的組截獲的子串在string中的結束索引(子串最後一個字元的索引+1)。group預設值為0。
  6. span([group]):
    返回(start(group), end(group))。
  7. expand(template):
    將匹配到的分組代入template中然後返回。template中可以使用\id或\g<id>、\g<name>引用分組,但不能使用編號0。\id與\g<id>是等價的;但\10將被認為是第10個分組,如果你想表達\1之後是字元'0',只能使用\g<1>0。
import re
m = re.match(r'(\w+) (\w+)(?P<sign>.*)', 'hello world!')
 
print "m.string:", m.string
print "m.re:", m.re
print "m.pos:", m.pos
print "m.endpos:", m.endpos
print "m.lastindex:", m.lastindex
print "m.lastgroup:", m.lastgroup
 
print "m.group(1,2):", m.group(1, 2)
print "m.groups():", m.groups()
print "m.groupdict():", m.groupdict()
print "m.start(2):", m.start(2)
print "m.end(2):", m.end(2)
print "m.span(2):", m.span(2)
print r"m.expand(r'\2 \1\3'):", m.expand(r'\2 \1\3')
 
### output ###
# m.string: hello world!
# m.re: <_sre.SRE_Pattern object at 0x016E1A38>
# m.pos: 0
# m.endpos: 12
# m.lastindex: 3
# m.lastgroup: sign
# m.group(1,2): ('hello', 'world')
# m.groups(): ('hello', 'world', '!')
# m.groupdict(): {'sign': '!'}
# m.start(2): 6
# m.end(2): 11
# m.span(2): (6, 11)
# m.expand(r'\2 \1\3'): world hello!

5.3. Pattern

Pattern物件是一個編譯好的正則表示式,通過Pattern提供的一系列方法可以對文字進行匹配查詢。

Pattern不能直接例項化,必須使用re.compile()進行構造。

Pattern提供了幾個可讀屬性用於獲取表示式的相關資訊:

  1. pattern: 編譯時用的表示式字串。
  2. flags: 編譯時用的匹配模式。數字形式。
  3. groups: 表示式中分組的數量。
  4. groupindex: 以表示式中有別名的組的別名為鍵、以該組對應的編號為值的字典,沒有別名的組不包含在內。
import re
p = re.compile(r'(\w+) (\w+)(?P<sign>.*)', re.DOTALL)
 
print "p.pattern:", p.pattern
print "p.flags:", p.flags
print "p.groups:", p.groups
print "p.groupindex:", p.groupindex
 
### output ###
# p.pattern: (\w+) (\w+)(?P<sign>.*)
# p.flags: 16
# p.groups: 3
# p.groupindex: {'sign': 3}

例項方法[ | re模組方法]:

  1. match(string[, pos[, endpos]]) | re.match(pattern, string[, flags]):
    這個方法將從string的pos下標處起嘗試匹配pattern;如果pattern結束時仍可匹配,則返回一個Match物件;如果匹配過程中pattern無法匹配,或者匹配未結束就已到達endpos,則返回None。
    pos和endpos的預設值分別為0和len(string);re.match()無法指定這兩個引數,引數flags用於編譯pattern時指定匹配模式。
    注意:這個方法並不是完全匹配。當pattern結束時若string還有剩餘字元,仍然視為成功。想要完全匹配,可以在表示式末尾加上邊界匹配符'$'。
    示例參見2.1小節。
  2. search(string[, pos[, endpos]]) | re.search(pattern, string[, flags]):
    這個方法用於查詢字串中可以匹配成功的子串。從string的pos下標處起嘗試匹配pattern,如果pattern結束時仍可匹配,則返回一個Match物件;若無法匹配,則將pos加1後重新嘗試匹配;直到pos=endpos時仍無法匹配則返回None。
    pos和endpos的預設值分別為0和len(string));re.search()無法指定這兩個引數,引數flags用於編譯pattern時指定匹配模式。
    # encoding: UTF-8
    import re
     
    # 將正則表示式編譯成Pattern物件
    pattern = re.compile(r'world')
     
    # 使用search()查詢匹配的子串,不存在能匹配的子串時將返回None
    # 這個例子中使用match()無法成功匹配
    match = pattern.search('hello world!')
     
    if match:
        # 使用Match獲得分組資訊
        print match.group()
     
    ### 輸出 ###
    # world
  3. split(string[, maxsplit]) | re.split(pattern, string[, maxsplit]):
    按照能夠匹配的子串將string分割後返回列表。maxsplit用於指定最大分割次數,不指定將全部分割。
    import re
     
    p = re.compile(r'\d+')
    print p.split('one1two2three3four4')
     
    ### output ###
    # ['one', 'two', 'three', 'four', '']
  4. findall(string[, pos[, endpos]]) | re.findall(pattern, string[, flags]):
    搜尋string,以列表形式返回全部能匹配的子串。
    import re
     
    p = re.compile(r'\d+')
    print p.findall('one1two2three3four4')
     
    ### output ###
    # ['1', '2', '3', '4']
  5. finditer(string[, pos[, endpos]]) | re.finditer(pattern, string[, flags]):
    搜尋string,返回一個順序訪問每一個匹配結果(Match物件)的迭代器。
    import re
     
    p = re.compile(r'\d+')
    for m in p.finditer('one1two2three3four4'):
        print m.group(),
     
    ### output ###
    # 1 2 3 4
  6. sub(repl, string[, count]) | re.sub(pattern, repl, string[, count]):
    使用repl替換string中每一個匹配的子串後返回替換後的字串。
    當repl是一個字串時,可以使用\id或\g<id>、\g<name>引用分組,但不能使用編號0。
    當repl是一個方法時,這個方法應當只接受一個引數(Match物件),並返回一個字串用於替換(返回的字串中不能再引用分組)。
    count用於指定最多替換次數,不指定時全部替換。
    import re
     
    p = re.compile(r'(\w+) (\w+)')
    s = 'i say, hello world!'
     
    print p.sub(r'\2 \1', s)
     
    def func(m):
        return m.group(1).title() + ' ' + m.group(2).title()
     
    print p.sub(func, s)
     
    ### output ###
    # say i, world hello!
    # I Say, Hello World!
  7. subn(repl, string[, count]) |re.sub(pattern, repl, string[, count]):
    返回 (sub(repl, string[, count]), 替換次數)。
    import re
     
    p = re.compile(r'(\w+) (\w+)')
    s = 'i say, hello world!'
     
    print p.subn(r'\2 \1', s)
     
    def func(m):
        return m.group(1).title() + ' ' + m.group(2).title()
     
    print p.subn(func, s)
     
    ### output ###
    # ('say i, world hello!', 2)
    # ('I Say, Hello World!', 2)

以上就是Python對於正則表示式的支援。熟練掌握正則表示式是每一個程式設計師必須具備的技能,這年頭沒有不與字串打交道的程式了。筆者也處於初級階段,與君共勉,^_^

另外,圖中的特殊構造部分沒有舉出例子,用到這些的正則表示式是具有一定難度的。有興趣可以思考一下,如何匹配不是以abc開頭的單詞,^_^

全文結束