python基礎(三)----字符編碼以及文件處理
字符編碼與文件處理
一.字符編碼
由字符翻譯成二進制數字的過程 字符--------(翻譯過程)------->數字 這個過程實際就是一個字符如何對應一個特定數字的標準,這個標準稱之為字符編碼。 字符編碼的發展史 階段一:現代計算機起源於美國,最早誕生也是基於英文考慮的ASCII ASCII:一個Bytes代表一個字符(英文字符/鍵盤上的所有其他字符),1Bytes=8bit,8bit可以表示0-2**8-1種變化,即可以表示256個字符 ASCII最初只用了後七位,127個數字,已經完全能夠代表鍵盤上所有的字符了(英文字符/鍵盤的所有其他字符) 後來為了將拉丁文也編碼進了ASCII表,將最高位也占用了 階段二:為了滿足中文,中國人定制了GBK GBK:2Bytes代表一個字符 為了滿足其他國家,各個國家紛紛定制了自己的編碼 日本把日文編到Shift_JIS裏,韓國把韓文編到Euc-kr裏 階段三:各國有各國的標準,就會不可避免地出現沖突,結果就是,在多語言混合的文本中,顯示出來會有亂碼。 於是產生了unicode, 統一用2Bytes代表一個字符, 2**16-1=65535,可代表6萬多個字符,因而兼容萬國語言 但對於通篇都是英文的文本來說,這種編碼方式無疑是多了一倍的存儲空間(二進制最終都是以電或者磁的方式存儲到存儲介質中的) 於是產生了UTF-8,對英文字符只用1Bytes表示,對中文字符用3Bytes 需要強調的一點是: unicode:簡單粗暴,所有字符都是2Bytes,優點是字符->數字的轉換速度快,缺點是占用空間大 utf-8:精準,對不同的字符用不同的長度表示,優點是節省空間,缺點是:字符->數字的轉換速度慢,因為每次都需要計算出字符需要多長的Bytes才能夠準確表示 - 內存中使用的編碼是unicode,用空間換時間(程序都需要加載到內存才能運行,因而內存應該是盡可能的保證快) - 硬盤中或者網絡傳輸用utf-8,網絡I/O延遲或磁盤I/O延遲要遠大與utf-8的轉換延遲,而且I/O應該是盡可能地節省帶寬,保證數據傳輸的穩定性。 用什麽類型的字符編碼存數據那麽就用什麽類型的字符編碼解數據!
在最新的Python 3版本中,字符串是以Unicode編碼的,也就是說,Python的字符串支持多語言,例如:
>>> print(‘包含中文的str‘)
包含中文的str
對於單個字符的編碼,Python提供了ord()
函數獲取字符的整數表示,chr()
函數把編碼轉換為對應的字符:
>>> ord(‘A‘)
65>>> ord(‘中‘)
20013>>> chr(66)
‘B‘>>> chr(25991)
‘文‘
如果知道字符的整數編碼,還可以用十六進制這麽寫str
:
>>> ‘\u4e2d\u6587‘‘中文‘
兩種寫法完全是等價的。
由於Python的字符串類型是str
,在內存中以Unicode表示,一個字符對應若幹個字節。如果要在網絡上傳輸,或者保存到磁盤上,就需要把str
變為以字節為單位的bytes
。
Python對bytes
類型的數據用帶b
前綴的單引號或雙引號表示:
x = b‘ABC‘
要註意區分‘ABC‘
和b‘ABC‘
,前者是str
,後者雖然內容顯示得和前者一樣,但bytes
的每個字符都只占用一個字節。
以Unicode表示的str
通過encode()
方法可以編碼為指定的bytes
,例如:
>>> ‘ABC‘.encode(‘ascii‘) b‘ABC‘ >>> ‘中文‘.encode(‘utf-8‘) b‘\xe4\xb8\xad\xe6\x96\x87‘ >>> ‘中文‘.encode(‘ascii‘) Traceback (most recent call last): File "<stdin>", line 1, in <module> UnicodeEncodeError: ‘ascii‘ codec can‘t encode characters in position 0-1: ordinal not in range(128)
純英文的str
可以用ASCII
編碼為bytes
,內容是一樣的,含有中文的str
可以用UTF-8
編碼為bytes
。含有中文的str
無法用ASCII
編碼,因為中文編碼的範圍超過了ASCII
編碼的範圍,Python會報錯。
在bytes
中,無法顯示為ASCII字符的字節,用\x##
顯示。
反過來,如果我們從網絡或磁盤上讀取了字節流,那麽讀到的數據就是bytes
。要把bytes
變為str
,就需要用decode()
方法:
>>> b‘ABC‘.decode(‘ascii‘)
‘ABC‘>>> b‘\xe4\xb8\xad\xe6\x96\x87‘.decode(‘utf-8‘)
‘中文‘
要計算str
包含多少個字符,可以用len()
函數:
>>> len(‘ABC‘)
3>>> len(‘中文‘)
2
len()
函數計算的是str
的字符數,如果換成bytes
,len()
函數就計算字節數:
>>> len(b‘ABC‘)
3>>> len(b‘\xe4\xb8\xad\xe6\x96\x87‘)
6>>> len(‘中文‘.encode(‘utf-8‘))
6
可見,1個中文字符經過UTF-8編碼後通常會占用3個字節,而1個英文字符只占用1個字節。
在操作字符串時,我們經常遇到str
和bytes
的互相轉換。為了避免亂碼問題,應當始終堅持使用UTF-8編碼對str
和bytes
進行轉換。
由於Python源代碼也是一個文本文件,所以,當你的源代碼中包含中文的時候,在保存源代碼時,就需要務必指定保存為UTF-8編碼。當Python解釋器讀取源代碼時,為了讓它按UTF-8編碼讀取,我們通常在文件開頭寫上這兩行:
#!/usr/bin/env python
# -*- coding: utf-8 -*-
第一行註釋是為了告訴Linux/OS X系統,這是一個Python可執行程序,Windows系統會忽略這個註釋;
第二行註釋是為了告訴Python解釋器,按照UTF-8編碼讀取源代碼,否則,你在源代碼中寫的中文輸出可能會有亂碼。
二Python對於文件處理的操作
打開文件的模式有:- r ,只讀模式【默認模式,文件必須存在,不存在則拋出異常】
- w,只寫模式【不可讀;不存在則創建;存在則清空內容】
- x, 只寫模式【不可讀;不存在則創建,存在則報錯】
- a, 追加模式【可讀; 不存在則創建;存在則只追加內容】
- r+, 讀寫【可讀,可寫】
- w+,寫讀【可讀,可寫】
- x+ ,寫讀【可讀,可寫】
- a+, 寫讀【可讀,可寫】
- rb 或 r+b
- wb 或 w+b
- xb 或 w+b
- ab 或 a+b
read_f=open(‘a.txt‘,‘r‘,encoding=‘utf-8‘)
write_f=open(‘.a.txt.swp‘,‘w‘,encoding=‘utf-8‘)
with open(‘a.txt‘,‘r‘,encoding=‘utf-8‘) as read_f,\#將文件打開
open(‘.a.txt.swp‘,‘w‘,encoding=‘utf-8‘) as write_f:#並且再創建一個文件名為.a.txt.swp的文件
for line in read_f:
if ‘alex‘ in line: #找到想要替換的內容
line=line.replace(‘alex‘,‘ALEXSB‘) #並且將舊的內容替換成新的內容存在.a.txt.swp的文件中
write_f.write(line) #不符合條件的不動
os.remove(‘a.txt‘) #將源文件刪除
os.rename(‘.a.txt.swp‘,‘a.txt‘) #將.a.txt.swp這個文件該成a.txt這樣就實現了文件內容的批量修改!
python基礎(三)----字符編碼以及文件處理