python爬虫中的 urllib 模块 浅析
2016-08-26 12:15
573 查看
python 3.x中urllib库和urilib2库合并成了urllib库,比如你在python 2.x中引入 import urllib2 ,你在python3.x 就不能引入import urllib ,而应该是import urllib.request其中urllib2.urlopen()变成了urllib.request.urlopen()urllib2.Request()变成了urllib.request.Request()
python3对urllib和urllib2进行了重构,拆分成了urllib.request, urllib.response, urllib.parse, urllib.error等几个子模块,这样的架构从逻辑和结构上说更加合理。 urljoin现在对应的函数是urllib.parse.urljoin
urllib模块中的方法
urllib 库有以下几个主要文件文件:error.py parse.py request.py response.py robotparser.py1.urllib.request.urlopen(url[,data[,proxies]])
打开一个url的方法,返回一个文件对象,然后可以进行类似文件对象的操作。本例试着打开google>>> import urllib>>> f = urllib.urlopen('http://www.google.com.hk/')>>> firstLine = f.readline() #读取html页面的第一行>>> firstLine'<!doctype html><html itemscope="" itemtype="http://schema.org/WebPage"><head><meta content="/images/google_favicon_128.png" itemprop="image"><title>Google</title><script>(function(){\n'urlopen返回对象提供方法:- read() , readline() ,readlines() , fileno() , close() :这些方法的使用方式与文件对象完全一样- info():返回一个httplib.HTTPMessage对象,表示远程服务器返回的头信息- getcode():返回Http状态码。如果是http请求,200请求成功完成;404网址未找到- geturl():返回请求的url
2.urllib.urlretrieve(url[,filename[,reporthook[,data]]])
urlretrieve方法将url定位到的html文件下载到你本地的硬盘中。如果不指定filename,则会存为临时文件。urlretrieve()返回一个二元组(filename,mine_hdrs)临时存放:>>> filename = urllib.request.urlretrieve('http://www.google.com.hk/')>>> type(filename)<type 'tuple'>>>> filename[0]'/tmp/tmp8eVLjq'>>> filename[1]<httplib.HTTPMessage instance at 0xb6a363ec>存为本地文件:
>>> filename = urllib.urlretrieve('http://www.google.com.hk/',filename='/home/dzhwen/python文件/Homework/urllib/google.html')>>> type(filename)<type 'tuple'>>>> filename[0]'/home/dzhwen/python\xe6\x96\x87\xe4\xbb\xb6/Homework/urllib/google.html'>>> filename[1]<httplib.HTTPMessage instance at 0xb6e2c38c>
3.urllib.request.urlcleanup()
清除由于urllib.request.urlretrieve()所产生的缓存4.urllib.request.quote(url)和urllib.request.quote_plus(url)
将url数据获取之后,并将其编码,从而适用与URL字符串中,使其能被打印和被web服务器接受。>>> urllib.request.quote('http://www.baidu.com')'http%3A//www.baidu.com'>>> urllib.request.quote_plus('http://www.baidu.com')'http%3A%2F%2Fwww.baidu.com'
5.urllib.request.unquote(url)和urllibrequest.unquote_plus(url)
与4的函数相反。6.urllib.request.urlencode(query)
将URL中的键值对以连接符&划分这里可以与urlopen结合以实现post方法和get方法:GET方法:>>> import urllib.request>>> params=urllib.request.urlencode({'spam':1,'eggs':2,'bacon':0})>>> params'eggs=2&bacon=0&spam=1'>>> f=urllib.request.urlopen("http://python.org/query?%s" % params)>>> print f.read()POST方法:
>>> import urllib>>> parmas = urllib.request,urlencode({'spam':1,'eggs':2,'bacon':0})>>> f=urllib.request.urlopen("http://python.org/query",parmas)>>> f.read()基本就这些,关于对象获取的方法就不赘述了。
相关文章推荐
- python爬虫学习二: urllib2模块的学习
- python3使用urllib模块制作网络爬虫
- Python基础知识——urllib模块在爬虫中的应用
- Python中使用urllib2模块编写爬虫的简单上手示例
- urllib模块爬虫在Python2在Python3中的使用
- python爬虫常用模块——urllib模块
- Python 爬虫基础 - Urllib 模块(1)
- Python中使用urllib2模块编写爬虫的简单上手示例
- python3使用urllib模块制作网络爬虫
- 学习Python爬虫(二):urllib库之parse模块、request模块
- 基于Python的urllib2模块的多线程网络爬虫程序
- python3——urllib模块的网络爬虫
- python爬虫之urllib模块和requests模块学习
- 运维学python之爬虫基础篇(二)urllib模块使用
- 运维学python之爬虫基础篇(三)urllib模块高级用法
- python 爬虫入门(2) 爬虫基础知识 ; urllib 模块 ;urllib2 模块
- python爬虫学习(一)通过urllib2模块获取html,设置用户代理
- python3使用urllib模块制作网络爬虫
- 使用Python的urllib和urllib2模块制作爬虫的实例教程