Python3.x 爬虫学习笔记——判断网页的编码方式
2016-07-25 20:24
531 查看
(以后写博客尽量用MarkDown,我还是太low了)
更新:
后来发现这玩意没有加上headers,有些网页打不开啊,于是就加上了
代码如下
def find_type(url,Headers):
data1 = urllib.request.urlopen(urllib.request.Request(url,headers = Headers)).read()
chardit1 = chardet.detect(data1)
if chardit1['encoding'] == "utf-8" or chardit1['encoding'] == "UTF-8":
return "UTF-8"
else:
return "GBK"
----------------------------华丽分割线-------------------------------------------
Python爬虫学的比当时学Android的时候弯路走的少了太多了,但是中间多多少少还是会遇到一些问题,判断网页的编码方式就是其中之一,百度之后很简单就搞定了, 但是实在感觉没什么可写的,就这样开个头吧(虽然很low,但是最近确实没有学什么有营养的东西,所以就这样了)。
判定用到了detect函数,首先要import re
更新:
后来发现这玩意没有加上headers,有些网页打不开啊,于是就加上了
代码如下
def find_type(url,Headers):
data1 = urllib.request.urlopen(urllib.request.Request(url,headers = Headers)).read()
chardit1 = chardet.detect(data1)
if chardit1['encoding'] == "utf-8" or chardit1['encoding'] == "UTF-8":
return "UTF-8"
else:
return "GBK"
----------------------------华丽分割线-------------------------------------------
Python爬虫学的比当时学Android的时候弯路走的少了太多了,但是中间多多少少还是会遇到一些问题,判断网页的编码方式就是其中之一,百度之后很简单就搞定了, 但是实在感觉没什么可写的,就这样开个头吧(虽然很low,但是最近确实没有学什么有营养的东西,所以就这样了)。
判定用到了detect函数,首先要import re
import re然后是一个 函数,应该是很容易看懂的
def find_type(url): data1 = urllib.request.urlopen(url).read()#正常的read一个url chardit1 = chardet.detect(data1)#分析data1的编码方式 if chardit1['encoding'] == "utf-8" or chardit1['encoding'] == "UTF-8":
这里,由于GBK可以解析GBxxxx之类的,默认不是UTF8就是GBK了,但是有些网页还是没办法解析,求大神指点 return "UTF-8" else: return "GBK"就这样,及其不认真的第一篇博文,感觉自己是个傻逼(笑)
相关文章推荐
- Python动态类型的学习---引用的理解
- Python3写爬虫(四)多线程实现数据爬取
- 垃圾邮件过滤器 python简单实现
- 下载并遍历 names.txt 文件,输出长度最长的回文人名。
- install and upgrade scrapy
- Scrapy的架构介绍
- Centos6 编译安装Python
- 使用Python生成Excel格式的图片
- 让Python文件也可以当bat文件运行
- [Python]推算数独
- Python中zip()函数用法举例
- Python中map()函数浅析
- Python将excel导入到mysql中
- Python在CAM软件Genesis2000中的应用
- 使用Shiboken为C++和Qt库创建Python绑定
- FREEBASIC 编译可被python调用的dll函数示例
- Python 七步捉虫法