Python爬虫处理抓取数据中文乱码问题
2016-09-22 14:02
627 查看
乱码原因:
因为你的文件声明为utf-8,并且也应该是用utf-8的编码保存的源文件。但是windows的本地默认编码是cp936,也就是gbk编码,所以在控制台直接打印utf-8的字符串当然是乱码了。
解决方法:
在控制台打印的地方用一个转码就ok了,打印的时候这么写:
比较通用的方法是:
因为你的文件声明为utf-8,并且也应该是用utf-8的编码保存的源文件。但是windows的本地默认编码是cp936,也就是gbk编码,所以在控制台直接打印utf-8的字符串当然是乱码了。
解决方法:
在控制台打印的地方用一个转码就ok了,打印的时候这么写:
print myname.decode('UTF-8').encode('GBK')
比较通用的方法是:
import sys type = sys.getfilesystemencoding() print myname.decode('UTF-8').encode(type)
相关文章推荐
- Python爬虫处理抓取数据中文乱码问题
- Python处理MLDonkey 下载中文文件乱码问题
- Python处理MLDonkey 下载中文文件乱码问题
- nodejs爬虫抓取数据乱码问题总结
- Node.js爬虫数据抓取乱码问题总结
- python的sqlaclchemy模块连接mysql数据出现中文乱码问题
- python 爬虫中文乱码问题
- meter-察看结果树-响应数据,中文显示乱码问题处理
- Python 爬虫过程中的中文乱码问题
- python pdfkit 中文乱码问题处理
- python 处理抓取网页乱码问题一招鲜
- python 网页抓取中的中文乱码问题解决
- python2在pycharm中的中文乱码问题处理方式
- 抓取网页中的内容、如何解决乱码问题、如何解决登录问题以及对所采集的数据进行处理显示的过程
- python 解决抓取网页中的中文显示乱码问题
- python 中文乱码问题 网络爬虫
- Python处理MLDonkey 下载中文文件乱码问题 (2)
- python读取数据库数据,读取出的中文乱码问题
- javaWed项目中用过滤器实现转码功能,敏感词汇过滤更能,处理Get和Post接收数据中的中文乱码问题以及敏感词汇的处理
- nodejs爬虫抓取数据乱码问题总结