python3中編碼與解碼的問題
?
?
ASCII 、Unicode、UTF-8
?
ASCII
我們知道,在計算機內部,所有的信息最終都表示為一個二進制的字符串。每一個二進制位(bit)有0和1兩種狀態,因此八個二進制位就可以組合出256種狀態,這被稱為一個字節(byte)。也就是說,一個字節一共可以用來表示256種不同的狀態,每一個狀態對應一個符號,就是256個符號,從0000000到11111111。
上個世紀60年代,美國制定了一套字符編碼,對英語字符與二進制位之間的關系,做了統一規定。這被稱為ASCII碼,一直沿用至今。
ASCII碼一共規定了128個字符的編碼,比如空格“SPACE”是32(二進制00100000),大寫的字母A是65(二進制01000001)。這128個符號(包括32個不能打印出來的控制符號),只占用了一個字節的后面7位,最前面的1位統一規定為0。
英語用128個符號編碼就夠了,但是用來表示其他語言,128個符號是不夠的。比如,在法語中,字母上方有注音符號,它就無法用ASCII碼表示。于是,一些歐洲國家就決定,利用字節中閑置的最高位編入新的符號。比如,法語中的é的編碼為130(二進制10000010)。這樣一來,這些歐洲國家使用的編碼體系,可以表示最多256個符號。
但是,這里又出現了新的問題。不同的國家有不同的字母,因此,哪怕它們都使用256個符號的編碼方式,代表的字母卻不一樣。比如,130在法語編碼中代表了é,在希伯來語編碼中卻代表了字母Gimel (?),在俄語編碼中又會代表另一個符號。但是不管怎樣,所有這些編碼方式中,0—127表示的符號是一樣的,不一樣的只是128—255的這一段。
至于亞洲國家的文字,使用的符號就更多了,漢字就多達10萬左右。一個字節只能表示256種符號,肯定是不夠的,就必須使用多個字節表達一個符號。比如,簡體中文常見的編碼方式是GB2312,使用兩個字節表示一個漢字,所以理論上最多可以表示256x256=65536個符號。
?
Unicode
世界上存在著多種編碼方式,同一個二進制數字可以被解釋成不同的符號。因此,要想打開一個文本文件,就必須知道它的編碼方式,否則用錯誤的編碼方式解讀,就會出現亂碼。為什么電子郵件常常出現亂碼?就是因為發信人和收信人使用的編碼方式不一樣。
可以想象,如果有一種編碼,將世界上所有的符號都納入其中。每一個符號都給予一個獨一無二的編碼,那么亂碼問題就會消失。這就是Unicode,就像它的名字都表示的,這是一種所有符號的編碼。
Unicode當然是一個很大的集合,現在的規模可以容納100多萬個符號。每個符號的編碼都不一樣,比如,U+0639表示阿拉伯字母Ain,U+0041表示英語的大寫字母A,U+4E25表示漢字“嚴”。具體的符號對應表,可以查詢unicode.org,或者專門的漢字對應表。
需要注意的是,Unicode只是一個符號集,它只規定了符號的二進制代碼,卻沒有規定這個二進制代碼應該如何存儲。
比如,漢字“嚴”的unicode是十六進制數4E25,轉換成二進制數足足有15位(100111000100101),也就是說這個符號的表示至少需要2個字節。表示其他更大的符號,可能需要3個字節或者4個字節,甚至更多。
這里就有兩個嚴重的問題,第一個問題是,如何才能區別unicode和ascii?計算機怎么知道三個字節表示一個符號,而不是分別表示三個符號呢?第二個問題是,我們已經知道,英文字母只用一個字節表示就夠了,如果unicode統一規定,每個符號用三個或四個字節表示,那么每個英文字母前都必然有二到三個字節是0,這對于存儲來說是極大的浪費,文本文件的大小會因此大出二三倍,這是無法接受的。
它們造成的結果是:1)出現了unicode的多種存儲方式,也就是說有許多種不同的二進制格式,可以用來表示unicode。2)unicode在很長一段時間內無法推廣,直到互聯網的出現。
?
UTF-8
互聯網的普及,強烈要求出現一種統一的編碼方式。UTF-8就是在互聯網上使用最廣的一種unicode的實現方式。其他實現方式還包括UTF-16和UTF-32,不過在互聯網上基本不用。重復一遍,這里的關系是,UTF-8是Unicode的實現方式之一。
UTF-8最大的一個特點,就是它是一種變長的編碼方式。它可以使用1~4個字節表示一個符號,根據不同的符號而變化字節長度。
UTF-8的編碼規則很簡單,只有二條:
1)對于單字節的符號,字節的第一位設為0,后面7位為這個符號的unicode碼。因此對于英語字母,UTF-8編碼和ASCII碼是相同的。
2)對于n字節的符號(n>1),第一個字節的前n位都設為1,第n+1位設為0,后面字節的前兩位一律設為10。剩下的沒有提及的二進制位,全部為這個符號的unicode碼。
下表總結了編碼規則,字母x表示可用編碼的位。
Unicode符號范圍 | UTF-8編碼方式 (十六進制) | (二進制) --------------------+--------------------------------------------- 0000 0000-0000 007F | 0xxxxxxx 0000 0080-0000 07FF | 110xxxxx 10xxxxxx 0000 0800-0000 FFFF | 1110xxxx 10xxxxxx 10xxxxxx 0001 0000-0010 FFFF | 11110xxx 10xxxxxx 10xxxxxx 10xxxxxx
下面,還是以漢字“嚴”為例,演示如何實現UTF-8編碼。
已知“嚴”的unicode是4E25(100111000100101),根據上表,可以發現4E25處在第三行的范圍內(0000 0800-0000 FFFF),因此“嚴”的UTF-8編碼需要三個字節,即格式是“1110xxxx 10xxxxxx 10xxxxxx”。然后,從“嚴”的最后一個二進制位開始,依次從后向前填入格式中的x,多出的位補0。這樣就得到了,“嚴”的UTF-8編碼是“11100100 10111000 10100101”,轉換成十六進制就是E4B8A5。
?
?
python3中的編碼與解碼
?
前言
Python3 最重要的一項改進之一就是解決了 Python2 中字符串與字符編碼遺留下來的這個大坑。
使用 ASCII 碼作為默認編碼方式,對中文處理很不友好。
把字符串的牽強地分為 unicode 和 str 兩種類型,誤導開發者
Python3 把系統默認編碼設置為 UTF-8
文本字符和二進制數據區分得更清晰,分別用 str 和 bytes 表示。文本字符全部用 str 類型表示,str 能表示 Unicode 字符集中所有字符,而二進制字節數據用一種全新的數據類型,用 bytes 來表示。
?
?
str與bytes
str
str1 = " a " print (type(str1),str1) str2 = " 一 " print (type(str2),str2)
結果:
< class ' str ' > a < class ' str ' > 一
bytes
Python3 中,在字符引號前加‘b’,明確表示這是一個 bytes 類型的對象,實際上它就是一組二進制字節序列組成的數據,bytes 類型可以是 ASCII范圍內的字符和其它十六進制形式的字符數據,但不能用中文等非ASCII字符表示。
b1 = b " a " print (type(b1),b1) b2 = b ' \xe7\xa6\x85 ' print (type(b2),b2)
結果:
< class ' bytes ' > b ' a ' < class ' bytes ' > b ' \xe7\xa6\x85 '
bytes字符串的組成形式,必須是十六進制數,或者ASCII字符。
?
python2 與 python3 字節與字符的對應關系:
?
PYTHON2 | PYTHON3 | 表現 | 轉換 | 作用 |
---|---|---|---|---|
str | bytes | 字節 | encode | 存儲 |
unicode | str | 字符 | decode | 顯示 |
?
?
encode 與 decode
?
str 與 bytes 之間的轉換可以用 encode 和從decode 方法。
encode 負責字符到字節的編碼轉換。默認使用 UTF-8 編碼準換。
s1 = " python編碼與解碼 " res = s1.encode() print (res) res = s1.encode( " gbk " ) print (res)
結果:
b ' python\xe7\xbc\x96\xe7\xa0\x81\xe4\xb8\x8e\xe8\xa7\xa3\xe7\xa0\x81 ' b ' python\xb1\xe0\xc2\xeb\xd3\xeb\xbd\xe2\xc2\xeb '
?
decode 負責字節到字符的解碼轉換,通用使用 UTF-8 編碼格式進行轉換。
print (b ' python\xe7\xbc\x96\xe7\xa0\x81\xe4\xb8\x8e\xe8\xa7\xa3\xe7\xa0\x81 ' .decode()) print (b ' python\xb1\xe0\xc2\xeb\xd3\xeb\xbd\xe2\xc2\xeb ' .decode( " gbk " ))
結果:
python編碼與解碼
python編碼與解碼
?
?
UTF-8與GBK
# 不管是utf-8,還是gbk,都可以理解為一種對應關系(若干個十六進制數<——>某個字符): s3 = u " 編碼 " utf8 = s3.encode( ' utf-8 ' ) print (type(utf8)) print (len(utf8)) print (utf8) gbk = s3.encode( ' gbk ' ) print (type(gbk)) print (len(gbk)) print (gbk) # utf-8用三個十六進制來表示一個中文字符 # gbk用二個十六進制來表示一個中文字符。 # 結論:encode()函數根據括號內的編碼方式,把str類型的字符串轉換為bytes字符串,字符對應的若干十六進制數,根據編碼方式決定
結果:
< class ' bytes ' > 6 b ' \xe7\xbc\x96\xe7\xa0\x81 ' < class ' bytes ' > 4 b ' \xb1\xe0\xc2\xeb '
?
?
字符編碼聲明
源代碼文件中,如果有用到非ASCII字符,則需要在文件頭部進行字符編碼的聲明,如下: # -*- coding: UTF-8 -*- 實際上Python只檢查 # 、coding和編碼字符串,其他的字符都是為了美觀加上的。另外,Python中可用的字符編碼有很多,并且還有許多別名,還不區分大小寫,比如UTF-8可以寫成u8。參見http://docs.python.org/library/codecs.html#standard-encodings。
?
?
?
chardet
chardet是用來檢測編碼的,對于未知的bytes,要把它轉換為str,我們并不知道它的編碼方式,而chardet可以幫我們檢測編碼。
?
>>> chardet.detect(b ' Hello, world! ' ) { ' encoding ' : ' ascii ' , ' confidence ' : 1.0, ' language ' : '' }
檢測出的編碼是
ascii
,注意到還有個
confidence
字段,表示檢測的概率是1.0(即100%)。
?
檢測GBK編碼的中文:
>>> data = ' 離離原上草,一歲一枯榮 ' .encode( ' gbk ' ) >>> chardet.detect(data) { ' encoding ' : ' GB2312 ' , ' confidence ' : 0.7407407407407407, ' language ' : ' Chinese ' }
檢測的編碼是
GB2312
,注意到GBK是GB2312的超集,兩者是同一種編碼,檢測正確的概率是74%,
language
字段指出的語言是
'Chinese'
。
?
UTF-8編碼進行檢測:
>>> data = ' 離離原上草,一歲一枯榮 ' .encode( ' utf-8 ' ) >>> chardet.detect(data) { ' encoding ' : ' utf-8 ' , ' confidence ' : 0.99, ' language ' : '' }
?
?
?
?
?refence:
http://python.jobbole.com/88277/?utm_source=blog.jobbole.com&utm_medium=relatedPosts
http://python.jobbole.com/82107/
https://blog.csdn.net/anlian523/article/details/80504699
更多文章、技術交流、商務合作、聯系博主
微信掃碼或搜索:z360901061

微信掃一掃加我為好友
QQ號聯系: 360901061
您的支持是博主寫作最大的動力,如果您喜歡我的文章,感覺我的文章對您有幫助,請用微信掃描下面二維碼支持博主2元、5元、10元、20元等您想捐的金額吧,狠狠點擊下面給點支持吧,站長非常感激您!手機微信長按不能支付解決辦法:請將微信支付二維碼保存到相冊,切換到微信,然后點擊微信右上角掃一掃功能,選擇支付二維碼完成支付。
【本文對您有幫助就好】元
