您的位置:首页 > 编程语言 > Python开发

Python中GBK, UTF-8和Unicode的编码问题

2014-10-18 21:30 597 查看
编码问题,一直是使用python2时的一块心病。几乎所有的控制台输入输出、IO操作和HTTP操作都会涉及如下的编码问题:

UnicodeDecodeError: ‘ascii’ codec can’t decode byte 0xc4 in position 10: ordinal not in range(128)


这究竟是是个什么东西?!有时稀里糊涂地用一坨encode(),decode()之类的函数让程序能跑对了,可是下次遇到非ASCII编码时又悲剧了。

那么Python 2.x中的字符串究竟是个什么呢?


基本编码知识

在了解Python中字符串(String)的本质前,我们需要知道ASCII、GBK、UTF-8和Unicode的关系究竟几何。

我们知道,任何字符串都是一串二进制字节的序列,而ASCII码是最经典的编码方式,它将序列中的每个字节理解为一个字符,可表示阿拉伯数字、字母在内的128个不同字符。很明显,汉字在ascii中是无法表示的。

为了让计算机能够显示、处理汉字,勤劳朴实的中国人民制定了GBK(GB2312的扩展)编码,这是一种兼容ASCII的不定长(长度为1-2)编码,对于基本的128个字符仍旧用一个字节表示,但“翔”这样的中文就用两个字节表示:



UTF-8与GBK类似,也是一种兼容ASCII码的不定长编码形式,它的长度变化更大,因此可以表示几乎所有世界文字。具体细节可参考维基:http://zh.wikipedia.org/wiki/UTF-8

Unicode是一种定长的编码方式(同ASCII),不过它是每2字节认为是一个字符,如ASCII中0x61表示'a',在Unicode中用0x0061表示'a',它可映射所有文字,而且对于多种写法的字,如強/强,它都可以唯一地区分它们。

由于Unicode编码的字符串体积很大,因此一般来说Unicode编码只是文字在内存中的内在形式,具体的存储(如文件、网页等)都需要靠外在的编码(UTF-8、GBK等)诠释。


Python2.x中字符串的本质



Python中实际上有两种字符串,分别是str类型和unicode类型,这两者都是basestring的派生类。它们的区别如下:

字符串类型
常量子串表示
内存中表示
len()
len含义
str
S=“呵呵”
与源码文件完全一致,一坨二进制编码
若源码文件为UTF-8编码,

len(S)=6
字节数
unicode
S=u“呵呵”
Unicode编码
len(S)=2
字数
str类型的本质就是一坨二进制串,源文件(或获取的网页)的编码是怎样,它就跟着是怎样。实际上Python并不清楚某个str字符串到底是什么编码。这也就解释了为什么我们需要在python文件的开头标定该文件的编码是什么,如:
# encoding: utf-8


也解释了为什么len()一个str类型的字符串,只会返回它在内存中占用的字节数,而非文字数。

相比于str,unicode是真正的字符串。Python明确地知道它的编码,所以可以很自信地获得一个字符串的实际字数。


字符串编码转换:encode()和decode()

Python最常用的编码转换函数是encode()和decode(),他们的本质是:unicode和str的互相转换。

具体而言:

encode(encoding): 将unicode转换为str,并使用encoding编码;

decode(encoding):将str转换为unicode,其中str以encoding编码。

我们来看一个例子:
#encoding: utf-8
 
s = "你好" # 整个文件是UTF-8编码,所以这里的字符串也是UTF-8
 
u = s.decode("utf-8") # 将utf-8的str转换为unicode
g = u.encode('GBK') # 将unicode转换为str,编码为GBK
print type(s), "len=", len(s)
# 输出:<type 'str'> len= 6,utf-8每个汉字占3字节
 
print type(u), "len=", len(u)
# 输出:<type 'str'> len= 6,unicode统计的是字数
 
print type(g), "len=", len(g)
# 输出:g = u.encode('GBK'),GBK每个汉字占2字节
 
print s
# 在GBK/ANSI环境下(如Windows),输出乱码,
#因为此时屏幕输出会被强制理解为GBK;Linux下显示正常
 
print g
# 在Windows下输出“你好”,
#Linux(UTF-8环境)下报错,原因同上。


在Windows7(中文)下运行结果如下:

<type 'str'> len= 6
<type 'unicode'> len= 2
<type 'str'> len= 4
浣犲ソ
你好
 
Traceback (most recent call last):
  File "C:/Users/Sunicy/Desktop/encode.py", line 15, in <module>
    g.decode('utf-8')
  File "C:\Python27\lib\encodings\utf_8.py", line 16, in decode
    return codecs.utf_8_decode(input, errors, True)
UnicodeDecodeError: 'utf8' codec can't decode byte 0xc4 in position 0: invalid cont



判断变量是否为字符串

我们知道Python中判断一个变量是否为某个类型使用isinstance(变量, 类型)函数,如
isinstance(1.2, float)


返回值为True

那么判断变量是不是字符串能不能用
isinstance(s, str)


呢?

答案是否定的。

现在我们知道除了str之外,unicode类型也是字符串,因此上述代码如果遇到unicode字符串,就返回False。

直观地改进是既判断str又判断unicode:
isinstance(s, str) or isinstance(s, unicode)


不过这个方法有效,但是有点傻。既然str和unicode都派生自basestring,那么实际上以basestring作为类型是最稳妥的:

isinstance(s, basestring)


下面是一组例子:

isinstance("aaa", str) # -> True
isinstance({}, dict) # -> True
isinstance([1,], list) # -> True
isinstance("aaa", list) # -> False
isinstance("你", str) # -> False
isinstance("你好", basestring) # -> True
isinstance("aaa", basestring) # -> True



总结

unicode是支持所有文字的统一编码,但一般只用作文字的内部表示,文件、网页(也是文件)、屏幕输入输出等处均需使用具体的外在编码,如GBK、UTF-8等;

encode和decode都是针对unicode进行“编码”和“解码”,所以encode是unicode->str的过程,decode是str->unicode的过程;

unicode和str是一对孪生兄弟,来自basestring,所以用isinstance(s, basestring)来判断s是否为字符串。

原文地址:http://sunicy.com/2013/10/encodings-in-python/
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: