将unicode编码的txt文件转为utf-8编码
2012-03-08 21:57
309 查看
利用codes编写:
对codecs的解释:该解释转自:http://blog.csdn.net/zhaoweikid/article/details/1642015
python对多国语言的处理是支持的很好的,它可以处理现在任意编码的字符,这里深入的研究一下python对多种不同语言的处理。
有一点需要清楚的是,当python要做编码转换的时候,会借助于内部的编码,转换过程是这样的:
原有编码 -> 内部编码 -> 目的编码
python的内部是使用unicode来处理的,但是unicode的使用需要考虑的是它的编码格式有两种,一是UCS-2,它一共有65536个码位,另一种是UCS-4,它有2147483648g个码位。对于这两种格式,python都是支持的,这个是在编译时通过--enable-unicode=ucs2或--enable-unicode=ucs4来指定的。那么我们自己默认安装的python有的什么编码怎么来确定呢?有一个办法,就是通过sys.maxunicode的值来判断:
如果输出的值为65535,那么就是UCS-2,如果输出是1114111就是UCS-4编码。
我们要认识到一点:当一个字符串转换为内部编码后,它就不是str类型了!它是unicode类型:
输出:
<type 'str'>
<type 'unicode'>
这个时候b可以方便的任意转换为其他编码,比如转换为utf-8:
c输出的东西看起来是乱码,那就对了,因为是utf-8的字符串。
好了,该说说codecs模块了,它和我上面说的概念是密切相关的。codecs专门用作编码转换,当然,其实通过它的接口是可以扩展到其他关于代码方面的转换的,这个东西这里不涉及。
上面的代码就是codecs的使用,是最常见的用法。另外还有一个问题就是,如果我们处理的文件里的字符编码是其他类型的呢?这个读取进行做处理也需要特殊的处理的。codecs也提供了方法.
上面这个处理big5的,可以去找段big5编码的文件试试。
# coding=UTF-8 import string import codecs def changecode(): tt=codecs.open('c:\\111.txt','rb','utf-16') #111.txt为unicode编码文件,以unicode编码打开,utf-16=unicode mm=open('c:\\123.txt','wb') ff=tt.readlines() for i in ff: print i mm.write(i.encode('UTF-8')) mm.write('123') tt.close mm.close def checkyes(): nn=open('c:\\123.txt','rb') nnff=nn.readlines() nn.close() if nnff[-1]=='123': print "finish" changecode() checkyes()
对codecs的解释:该解释转自:http://blog.csdn.net/zhaoweikid/article/details/1642015
python对多国语言的处理是支持的很好的,它可以处理现在任意编码的字符,这里深入的研究一下python对多种不同语言的处理。
有一点需要清楚的是,当python要做编码转换的时候,会借助于内部的编码,转换过程是这样的:
原有编码 -> 内部编码 -> 目的编码
python的内部是使用unicode来处理的,但是unicode的使用需要考虑的是它的编码格式有两种,一是UCS-2,它一共有65536个码位,另一种是UCS-4,它有2147483648g个码位。对于这两种格式,python都是支持的,这个是在编译时通过--enable-unicode=ucs2或--enable-unicode=ucs4来指定的。那么我们自己默认安装的python有的什么编码怎么来确定呢?有一个办法,就是通过sys.maxunicode的值来判断:
import sys print sys.maxunicode
如果输出的值为65535,那么就是UCS-2,如果输出是1114111就是UCS-4编码。
我们要认识到一点:当一个字符串转换为内部编码后,它就不是str类型了!它是unicode类型:
a = "风卷残云" print type(a) b = a.unicode(a, "gb2312") print type(b)
输出:
<type 'str'>
<type 'unicode'>
这个时候b可以方便的任意转换为其他编码,比如转换为utf-8:
c = b.encode("utf-8") print c
c输出的东西看起来是乱码,那就对了,因为是utf-8的字符串。
好了,该说说codecs模块了,它和我上面说的概念是密切相关的。codecs专门用作编码转换,当然,其实通过它的接口是可以扩展到其他关于代码方面的转换的,这个东西这里不涉及。
#-*- encoding: gb2312 -*- import codecs, sys print '-'*60 # 创建gb2312编码器 look = codecs.lookup("gb2312") # 创建utf-8编码器 look2 = codecs.lookup("utf-8") a = "我爱北京天安门" print len(a), a # 把a编码为内部的unicode, 但为什么方法名为decode呢,我的理解是把gb2312的字符串解码为unicode b = look.decode(a) # 返回的b[0]是数据,b[1]是长度,这个时候的类型是unicode了 print b[1], b[0], type(b[0]) # 把内部编码的unicode转换为gb2312编码的字符串,encode方法会返回一个字符串类型 b2 = look.encode(b[0]) # 发现不一样的地方了吧?转换回来之后,字符串长度由14变为了7! 现在的返回的长度才是真正的字数,原来的是字节数 print b2[1], b2[0], type(b2[0]) # 虽然上面返回了字数,但并不意味着用len求b2[0]的长度就是7了,仍然还是14,仅仅是codecs.encode会统计字数 print len(b2[0])
上面的代码就是codecs的使用,是最常见的用法。另外还有一个问题就是,如果我们处理的文件里的字符编码是其他类型的呢?这个读取进行做处理也需要特殊的处理的。codecs也提供了方法.
#-*- encoding: gb2312 -*- import codecs, sys # 用codecs提供的open方法来指定打开的文件的语言编码,它会在读取的时候自动转换为内部unicode bfile = codecs.open("dddd.txt", 'r', "big5") #bfile = open("dddd.txt", 'r') ss = bfile.read() bfile.close() # 输出,这个时候看到的就是转换后的结果。如果使用语言内建的open函数来打开文件,这里看到的必定是乱码 print ss, type(ss)
上面这个处理big5的,可以去找段big5编码的文件试试。
相关文章推荐
- 将.txt文件用Mac打开报文本编码“Unicode(UTF-8)”不适用的解决办法
- Shell脚本把文件从GBK转为UTF-8编码
- 一上午搞java编码问题,写了一个将批量文件编码转为UTF-8的小程序(有BUG-.-!)
- java输出txt文件为unicode的编码方式
- Shell脚本把文件从GBK转为UTF-8编码
- txt文件在存为utf-8时候会自带三个编码,现在通过程序将其从内容中去除
- J2ME中读取Unicode和UTF-8编码文件
- 如何将Java源代码文件的编码从GBK转为UTF-8?
- java生成unicode编码格式的txt文件
- J2ME中读取Unicode和UTF-8编码文件
- Eclipse:批量将Java源代码文件的编码从GBK转为UTF-8
- php将unicode编码转为utf-8方法
- Java转换txt文件编码(GBK转UTF-8)
- Java读取UTF-8编码的TXT文件,第一行多一个"?"
- 中文编码问题:raw_input输入、文件读取、变量比较等str、unicode、utf-8转换问题
- 批量将Java源代码文件的编码从GBK转为UTF-8
- J2ME中读取Unicode和UTF-8编码文件
- C++中,将.txt文件的编码由UTF-8转换为ANSI
- python编码及文件编ASCII,Unicode和UTF-8相关知识
- 批量将Java源代码文件的编码从GBK转为UTF-8