1. 程式人生 > >Python中的字符串與字符編碼

Python中的字符串與字符編碼

培訓機構 .html col fault 結果 code 知識 java 的人

原文地址:點擊這裏

本節內容:


  1. 前言
  2. 相關概念
  3. Python中的默認編碼
  4. Python2與Python3中對字符串的支持
  5. 字符編碼轉換

一、前言


Python中的字符編碼是個老生常談的話題,同行們都寫過很多這方面的文章。有的人雲亦雲,也有的寫得很深入。近日看到某知名培訓機構的教學視頻中再次談及此問題,講解的還是不盡人意,所以才想寫這篇文字。一方面,梳理一下相關知識,另一方面,希望給其他人些許幫助。

Python2的 默認編碼 是ASCII,不能識別中文字符,需要顯式指定字符編碼;Python3的 默認編碼 為Unicode,可以識別中文字符。

相信大家在很多文章中都看到過類似上面這樣“對Python中中文處理”的解釋,也相信大家在最初看到這樣的解釋的時候確實覺得明白了。可是時間久了之後,再重復遇到相關問題就會覺得貌似理解的又不是那麽清楚了。如果我們了解上面說的默認編碼的作用是什麽,我們就會更清晰的明白那句話的含義。

需要說明的是,“字符編碼是什麽”,以及“字符編碼的發展過程” 不是本節討論的話題,這些內容可以參考我之前的 <<這篇文章>>。

二、相關概念


1. 字符與字節

一個字符不等價於一個字節,字符是人類能夠識別的符號,而這些符號要保存到計算的存儲中就需要用計算機能夠識別的字節來表示。一個字符往往有多種表示方法,不同的表示方法會使用不同的字節數。這裏所說的不同的表示方法就是指字符編碼,比如字母A-Z都可以用ASCII碼表示(占用一個字節),也可以用UNICODE表示(占兩個字節),還可以用UTF-8表示(占用一個字節)。字符編碼的作用就是將人類可識別的字符轉換為機器可識別的字節碼,以及反向過程。

UNICDOE才是真正的字符串,而用ASCII、UTF-8、GBK等字符編碼表示的是字節串。關於這點,我們可以在Python的官方文檔中經常可以看到這樣的描述"Unicode string" , " translating a Unicode string into a sequence of bytes"

我們寫代碼是寫在文件中的,而字符是以字節形式保存在文件中的,因此當我們在文件中定義個字符串時被當做字節串也是可以理解的。但是,我們需要的是字符串,而不是字節串。一個優秀的編程語言,應該嚴格區分兩者的關系並提供巧妙的完美的支持。JAVA語言就很好,以至於了解Python和PHP之前我從來沒有考慮過這些不應該由程序員來處理的問題。遺憾的是,很多編程語言試圖混淆“字符串”和“字節串”,他們把字節串當做字符串來使用,PHP和Python2都屬於這種編程語言。最能說明這個問題的操作就是取一個包含中文字符的字符串的長度:

  • 對字符串取長度,結果應該是所有字符串的個數,無論中文還是英文
  • 對字符串對應的字節串取長度,就跟編碼(encode)過程使用的字符編碼有關了(比如:UTF-8編碼,一個中文字符需要用3個字節來表示;GBK編碼,一個中文字符需要2個字節來表示)

註意:Windows的cmd終端字符編碼默認為GBK,因此在cmd輸入的中文字符需要用兩個字節表示

>>> # Python2
>>> a = Hello,中國  # 字節串,長度為字節個數 = len(‘Hello,‘)+len(‘中國‘) = 6+2*2 = 10
>>> b = uHello,中國  # 字符串,長度為字符個數 = len(‘Hello,‘)+len(‘中國‘) = 6+2 = 8
>>> c = unicode(a, gbk)  # 其實b的定義方式是c定義方式的簡寫,都是將一個GBK編碼的字節串解碼(decode)為一個Uniocde字符串
>>> 
>>> print(type(a), len(a))
(<type str>, 10)
>>> print(type(b), len(b))
(<type unicode>, 8)
>>> print(type(c), len(c))
(<type unicode>, 8)
>>>

Python3中對字符串的支持做了很大的改動,具體內容會在下面介紹。

2. 編碼與解碼

先做下科普:UNICODE字符編碼,也是一張字符與數字的映射,但是這裏的數字被稱為代碼點(code point), 實際上就是十六進制的數字。

Python官方文檔中對Unicode字符串、字節串與編碼之間的關系有這樣一段描述:

Unicode字符串是一個代碼點(code point)序列,代碼點取值範圍為0到0x10FFFF(對應的十進制為1114111)。這個代碼點序列在存儲(包括內存和物理磁盤)中需要被表示為一組字節(0到255之間的值),而將Unicode字符串轉換為字節序列的規則稱為編碼。

這裏說的編碼不是指字符編碼,而是指編碼的過程以及這個過程中所使用到的Unicode字符的代碼點與字節的映射規則。這個映射不必是簡單的一對一映射,因此編碼過程也不必處理每個可能的Unicode字符,例如:

將Unicode字符串轉換為ASCII編碼的規則很簡單--對於每個代碼點:

  • 如果代碼點數值<128,則每個字節與代碼點的值相同
  • 如果代碼點數值>=128,則Unicode字符串無法在此編碼中進行表示(這種情況下,Python會引發一個UnicodeEncodeError異常)

將Unicode字符串轉換為UTF-8編碼使用以下規則:

  • 如果代碼點數值<128,則由相應的字節值表示(與Unicode轉ASCII字節一樣)
  • 如果代碼點數值>=128,則將其轉換為一個2個字節,3個字節或4個字節的序列,該序列中的每個字節都在128到255之間。

簡單總結:

  • 編碼(encode):將Unicode字符串(中的代碼點)轉換特定字符編碼對應的字節串的過程和規則
  • 解碼(decode):將特定字符編碼的字節串轉換為對應的Unicode字符串(中的代碼點)的過程和規則

可見,無論是編碼還是解碼,都需要一個重要因素,就是特定的字符編碼。因為一個字符用不同的字符編碼進行編碼後的字節值以及字節個數大部分情況下是不同的,反之亦然。

三、Python中的默認編碼


1. Python源代碼文件的執行過程

我們都知道,磁盤上的文件都是以二進制格式存放的,其中文本文件都是以某種特定編碼的字節形式存放的。對於程序源代碼文件的字符編碼是由編輯器指定的,比如我們使用Pycharm來編寫Python程序時會指定工程編碼和文件編碼為UTF-8,那麽Python代碼被保存到磁盤時就會被轉換為UTF-8編碼對應的字節(encode過程)後寫入磁盤。當執行Python代碼文件中的代碼時,Python解釋器在讀取Python代碼文件中的字節串之後,需要將其轉換為UNICODE字符串(decode過程)之後才執行後續操作。

上面已經解釋過,這個轉換過程(decode,解碼)需要我們指定文件中保存的字節使用的字符編碼是什麽,才能知道這些字節在UNICODE這張萬國碼和統一碼中找到其對應的代碼點是什麽。這裏指定字符編碼的方式大家都很熟悉,如下所示:

# -*- coding:utf-8 -*-

技術分享圖片

2. 默認編碼

那麽,如果我們沒有在代碼文件開始的部分指定字符編碼,Python解釋器就會使用哪種字符編碼把從代碼文件中讀取到的字節轉換為UNICODE代碼點呢?就像我們配置某些軟件時,有很多默認選項一樣,需要在Python解釋器內部設置默認的字符編碼來解決這個問題,這就是文章開頭所說的“默認編碼”。因此大家所說的Python中文字符問題就可以總結為一句話:當無法通過默認的字符編碼對字節進行轉換時,就會出現解碼錯誤(UnicodeEncodeError)

Python2和Python3的解釋器使用的默認編碼是不一樣的,我們可以通過sys.getdefaultencoding()來獲取默認編碼:

>>> # Python2
>>> import sys
>>> sys.getdefaultencoding()
ascii

>>> # Python3
>>> import sys
>>> sys.getdefaultencoding()
utf-8

因此,對於Python2來講,Python解釋器在讀取到中文字符的字節碼嘗試解碼操作時,會先查看當前代碼文件頭部是否有指明當前代碼文件中保存的字節碼對應的字符編碼是什麽。如果沒有指定則使用默認字符編碼"ASCII"進行解碼導致解碼失敗,導致如下錯誤:

SyntaxError: Non-ASCII character \xc4 in file xxx.py on line 11, but no encoding declared; see http://python.org/dev/peps/pep-0263/ for details

對於Python3來講,執行過程是一樣的,只是Python3的解釋器以"UTF-8"作為默認編碼,但是這並不表示可以完全兼容中文問題。比如我們在Windows上進行開發時,Python工程及代碼文件都使用的是默認的GBK編碼,也就是說Python代碼文件是被轉換成GBK格式的字節碼保存到磁盤中的。Python3的解釋器執行該代碼文件時,試圖用UTF-8進行解碼操作時,同樣會解碼失敗,導致如下錯誤:

SyntaxError: Non-UTF-8 code starting with \xc4 in file xxx.py on line 11, but no encoding declared; see http://python.org/dev/peps/pep-0263/ for details

3. 最佳實踐

  • 創建一個工程之後先確認該工程的字符編碼是否已經設置為UTF-8
  • 為了兼容Python2和Python3,在代碼頭部聲明字符編碼:-*- coding:utf-8 -*-

四、Python2與Python3中對字符串的支持


其實Python3中對字符串支持的改進,不僅僅是更改了默認編碼,而是重新進行了字符串的實現,而且它已經實現了對UNICODE的內置支持,從這方面來講Python已經和JAVA一樣優秀。下面我們來看下Python2與Python3中對字符串的支持有什麽區別:

Python2

Python2中對字符串的支持由以下三個類提供

class basestring(object)
    class str(basestring)
    class unicode(basestring)

執行help(str)和help(bytes)會發現結果都是str類的定義,這也說明Python2中str就是字節串,而後來的unicode對象對應才是真正的字符串。

#!/usr/bin/env python
# -*- coding:utf-8 -*-

a = 你好
b = u你好

print(type(a), len(a))
print(type(b), len(b))

輸出結果:

(<type str>, 6)
(<type unicode>, 2)

Python3

Python3中對字符串的支持進行了實現類層次的上簡化,去掉了unicode類,添加了一個bytes類。從表面上來看,可以認為Python3中的str和unicode合二為一了。

class bytes(object)
class str(object)

實際上,Python3中已經意識到之前的錯誤,開始明確的區分字符串與字節。因此Python3中的str已經是真正的字符串,而字節是用單獨的bytes類來表示。也就是說,Python3默認定義的就是字符串,實現了對UNICODE的內置支持,減輕了程序員對字符串處理的負擔。

#!/usr/bin/env python
# -*- coding:utf-8 -*-

a = 你好
b = u你好
c = 你好.encode(gbk)

print(type(a), len(a))
print(type(b), len(b))
print(type(c), len(c))

輸出結果:

<class str> 2
<class str> 2
<class bytes> 4

五、字符編碼轉換


上面提到,UNICODE字符串可以與任意字符編碼的字節進行相互轉換,如圖:

技術分享圖片

那麽大家很容易想到一個問題,就是不同的字符編碼的字節可以通過Unicode相互轉換嗎?答案是肯定的。

Python2中的字符串進行字符編碼轉換過程是:

字節串-->decode(‘原來的字符編碼‘)-->Unicode字符串-->encode(‘新的字符編碼‘)-->字節串

#!/usr/bin/env python
# -*- coding:utf-8 -*-


utf_8_a = 我愛中國
gbk_a = utf_8_a.decode(utf-8).encode(gbk)
print(gbk_a.decode(gbk))

輸出結果:

我愛中國

Python3中定義的字符串默認就是unicode,因此不需要先解碼,可以直接編碼成新的字符編碼:

字符串-->encode(‘新的字符編碼‘)-->字節串

#!/usr/bin/env python
# -*- coding:utf-8 -*-


utf_8_a = 我愛中國
gbk_a = utf_8_a.encode(gbk)
print(gbk_a.decode(gbk))

輸出結果:

我愛中國

最後需要說明的是,Unicode不是有道詞典,也不是google翻譯器,它並不能把一個中文翻譯成一個英文。正確的字符編碼的轉換過程只是把同一個字符的字節表現形式改變了,而字符本身的符號是不應該發生變化的,因此並不是所有的字符編碼之間的轉換都是有意義的。怎麽理解這句話呢?比如GBK編碼的“中國”轉成UTF-8字符編碼後,僅僅是由4個字節變成了6個字節來表示,但其字符表現形式還應該是“中國”,而不應該變成“你好”或者“China”。

Python中的字符串與字符編碼