1. 程式人生 > >python基礎(三)----字符編碼以及文件處理

python基礎(三)----字符編碼以及文件處理

odin mod window 存儲空間 表示 一行 內存數據 rec 錯誤

字符編碼與文件處理

一.字符編碼

由字符翻譯成二進制數字的過程 字符--------(翻譯過程)------->數字 這個過程實際就是一個字符如何對應一個特定數字的標準,這個標準稱之為字符編碼。 字符編碼的發展史 階段一:現代計算機起源於美國,最早誕生也是基於英文考慮的ASCII   ASCII:一個Bytes代表一個字符(英文字符/鍵盤上的所有其他字符),1Bytes=8bit,8bit可以表示0-2**8-1種變化,即可以表示256個字符     ASCII最初只用了後七位,127個數字,已經完全能夠代表鍵盤上所有的字符了(英文字符/鍵盤的所有其他字符)     後來為了將拉丁文也編碼進了ASCII表,將最高位也占用了 階段二:為了滿足中文,中國人定制了GBK   GBK:2Bytes代表一個字符   為了滿足其他國家,各個國家紛紛定制了自己的編碼   日本把日文編到Shift_JIS裏,韓國把韓文編到Euc-kr裏 階段三:各國有各國的標準,就會不可避免地出現沖突,結果就是,在多語言混合的文本中,顯示出來會有亂碼。 於是產生了unicode, 統一用2Bytes代表一個字符, 2**16-1=65535,可代表6萬多個字符,因而兼容萬國語言 但對於通篇都是英文的文本來說,這種編碼方式無疑是多了一倍的存儲空間(二進制最終都是以電或者磁的方式存儲到存儲介質中的) 於是產生了UTF-8,對英文字符只用1Bytes表示,對中文字符用3Bytes 需要強調的一點是: unicode:簡單粗暴,所有字符都是2Bytes,優點是字符->數字的轉換速度快,缺點是占用空間大 utf-8:精準,對不同的字符用不同的長度表示,優點是節省空間,缺點是:字符->數字的轉換速度慢,因為每次都需要計算出字符需要多長的Bytes才能夠準確表示 - 內存中使用的編碼是unicode,用空間換時間(程序都需要加載到內存才能運行,因而內存應該是盡可能的保證快) - 硬盤中或者網絡傳輸用utf-8,網絡I/O延遲或磁盤I/O延遲要遠大與utf-8的轉換延遲,而且I/O應該是盡可能地節省帶寬,保證數據傳輸的穩定性。 用什麽類型的字符編碼存數據那麽就用什麽類型的字符編碼解數據! 技術分享

在最新的Python 3版本中,字符串是以Unicode編碼的,也就是說,Python的字符串支持多語言,例如:

>>> print(‘包含中文的str‘)
包含中文的str

對於單個字符的編碼,Python提供了ord()函數獲取字符的整數表示,chr()函數把編碼轉換為對應的字符:

>>> ord(‘A‘)
65>>> ord(‘中‘)
20013>>> chr(66)
‘B‘>>> chr(25991)
‘文‘

如果知道字符的整數編碼,還可以用十六進制這麽寫str

>>> ‘\u4e2d\u6587‘‘中文‘

兩種寫法完全是等價的。

由於Python的字符串類型是str,在內存中以Unicode表示,一個字符對應若幹個字節。如果要在網絡上傳輸,或者保存到磁盤上,就需要把str變為以字節為單位的bytes

Python對bytes類型的數據用帶b前綴的單引號或雙引號表示:

x = b‘ABC‘

要註意區分‘ABC‘b‘ABC‘,前者是str,後者雖然內容顯示得和前者一樣,但bytes的每個字符都只占用一個字節。

以Unicode表示的str通過encode()方法可以編碼為指定的bytes,例如:

>>> ‘ABC‘.encode(‘ascii‘)
b‘ABC‘
>>> ‘中文‘.encode(‘utf-8‘)
b‘\xe4\xb8\xad\xe6\x96\x87‘
>>> ‘中文‘.encode(‘ascii‘)
Traceback (most recent call last):
  File "<stdin>", line 1, in <module>
UnicodeEncodeError: ‘ascii‘ codec can‘t encode characters in position 0-1: ordinal not in range(128)

純英文的str可以用ASCII編碼為bytes,內容是一樣的,含有中文的str可以用UTF-8編碼為bytes。含有中文的str無法用ASCII編碼,因為中文編碼的範圍超過了ASCII編碼的範圍,Python會報錯。

bytes中,無法顯示為ASCII字符的字節,用\x##顯示。

反過來,如果我們從網絡或磁盤上讀取了字節流,那麽讀到的數據就是bytes。要把bytes變為str,就需要用decode()方法:

>>> b‘ABC‘.decode(‘ascii‘)
‘ABC‘>>> b‘\xe4\xb8\xad\xe6\x96\x87‘.decode(‘utf-8‘)
‘中文‘

要計算str包含多少個字符,可以用len()函數:

>>> len(‘ABC‘)
3>>> len(‘中文‘)
2

len()函數計算的是str的字符數,如果換成byteslen()函數就計算字節數:

>>> len(b‘ABC‘)
3>>> len(b‘\xe4\xb8\xad\xe6\x96\x87‘)
6>>> len(‘中文‘.encode(‘utf-8‘))
6

可見,1個中文字符經過UTF-8編碼後通常會占用3個字節,而1個英文字符只占用1個字節。

在操作字符串時,我們經常遇到strbytes的互相轉換。為了避免亂碼問題,應當始終堅持使用UTF-8編碼對strbytes進行轉換。

由於Python源代碼也是一個文本文件,所以,當你的源代碼中包含中文的時候,在保存源代碼時,就需要務必指定保存為UTF-8編碼。當Python解釋器讀取源代碼時,為了讓它按UTF-8編碼讀取,我們通常在文件開頭寫上這兩行:

#!/usr/bin/env python
# -*- coding: utf-8 -*-
第一行註釋是為了告訴Linux/OS X系統,這是一個Python可執行程序,Windows系統會忽略這個註釋; 第二行註釋是為了告訴Python解釋器,按照UTF-8編碼讀取源代碼,否則,你在源代碼中寫的中文輸出可能會有亂碼。

二Python對於文件處理的操作

打開文件的模式有:
  • r ,只讀模式【默認模式,文件必須存在,不存在則拋出異常】
  • w,只寫模式【不可讀;不存在則創建;存在則清空內容】
  • x, 只寫模式【不可讀;不存在則創建,存在則報錯】
  • a, 追加模式【可讀; 不存在則創建;存在則只追加內容】
"+" 表示可以同時讀寫某個文件
  • r+, 讀寫【可讀,可寫】
  • w+,寫讀【可讀,可寫】
  • x+ ,寫讀【可讀,可寫】
  • a+, 寫讀【可讀,可寫】
"b"表示以字節的方式操作
  • rb 或 r+b
  • wb 或 w+b
  • xb 或 w+b
  • ab 或 a+b
註:以b方式打開時,讀取到的內容是字節類型,寫入時也需要提供字節類型,不能指定編碼 #r模式,默認模式,文不存在則報錯 # f=open(‘a.txt‘,encoding=‘utf-8‘) # # print(‘first-read:‘,f.read()) # # print(‘seconde-read: ‘,f.read()) # # # print(f.readline(),end=‘‘) # # print(f.readline(),end=‘‘) # # # # print(f.readlines()) # # # print(f.write(‘asdfasdfasdfasdfasdfasdf‘)) # # f.close() #w模式,文不存在則創建,文件存在則覆蓋 # f=open(‘a.txt‘,‘w‘,encoding=‘utf-8‘) # f.write(‘1111111\n22222\n3333\n‘) # # f.write(‘2222222\n‘) # # # f.writelines([‘11111\n‘,‘22222\n‘,‘3333\n‘]) # # f.close() #a模式,文不存在則創建,文件存在不會覆蓋,寫內容是追加的方式寫 # f=open(‘a.txt‘,‘a‘,encoding=‘utf-8‘) # f.write(‘\n444444\n‘) # f.write(‘5555555\n‘) # f.close() #其他方法 # f=open(‘a.txt‘,‘w‘,encoding=‘utf-8‘) # f.write(‘asdfasdf‘) # f.flush() #吧內存數據刷到硬盤 # f.close() # print(f.closed) #判斷文件是否關閉 # f.readlines() # print(f.name,f.encoding) # print(f.readable()) # print(f.writable()) # # f=open(‘c.txt‘,‘r‘,encoding=‘utf-8‘) # print(f.read(3)) # print(‘first_read: ‘,f.read()) # f.seek(0) # print(‘second_read: ‘,f.read()) # # f.seek(3) # print(f.tell()) # print(f.read()) # f=open(‘c.txt‘,‘w‘,encoding=‘utf-8‘) # f.write(‘1111\n‘) # f.write(‘2222\n‘) # f.write(‘3333\n‘) # f.write(‘444\n‘) # f.write(‘5555\n‘) # f.truncate(3) # f=open(‘a.txt‘,‘a‘,encoding=‘utf-8‘) # # f.truncate(2) #r w a; rb wb ab # f=open(‘a.txt‘,‘rb‘) # # print(f.read()) # print(f.read().decode(‘utf-8‘)) # f.close() # f=open(‘a.txt‘,‘wb‘) # # print(f.write(‘你好啊‘.encode(‘utf-8‘))) # f.close() 上下文管理 我們經常在打開文件操作時忘記了一個小的操作--關閉文檔 .colse() 我們用with as的模式來打開文檔操作就可以避免這個小錯誤! with open(‘a.txt‘,‘w‘) as f: pass 如何將文件的內容進行批量的修改:

read_f=open(‘a.txt‘,‘r‘,encoding=‘utf-8‘)
write_f=open(‘.a.txt.swp‘,‘w‘,encoding=‘utf-8‘)
with open(‘a.txt‘,‘r‘,encoding=‘utf-8‘) as read_f,\#將文件打開
open(‘.a.txt.swp‘,‘w‘,encoding=‘utf-8‘) as write_f:#並且再創建一個文件名為.a.txt.swp的文件
for line in read_f:
if ‘alex‘ in line: #找到想要替換的內容

line=line.replace(‘alex‘,‘ALEXSB‘) #並且將舊的內容替換成新的內容存在.a.txt.swp的文件中

write_f.write(line)  #不符合條件的不動
os.remove(‘a.txt‘)  #將源文件刪除
os.rename(‘.a.txt.swp‘,‘a.txt‘)  #將.a.txt.swp這個文件該成a.txt這樣就實現了文件內容的批量修改!

python基礎(三)----字符編碼以及文件處理