您的位置:首页 > 编程语言 > Python开发

python爬虫中的 urllib 模块 浅析

2016-08-26 12:15 573 查看
python 3.x中urllib库和urilib2库合并成了urllib库,比如你在python 2.x中引入 import urllib2 ,你在python3.x 就不能引入import urllib ,而应该是import urllib.request其中urllib2.urlopen()变成了urllib.request.urlopen()urllib2.Request()变成了urllib.request.Request()
python3对urllib和urllib2进行了重构,拆分成了urllib.request, urllib.response, urllib.parse, urllib.error等几个子模块,这样的架构从逻辑和结构上说更加合理。
urljoin现在对应的函数是urllib.parse.urljoin

urllib模块中的方法

urllib 库有以下几个主要文件文件:error.py parse.py request.py response.py robotparser.py

1.urllib.request.urlopen(url[,data[,proxies]])

打开一个url的方法,返回一个文件对象,然后可以进行类似文件对象的操作。本例试着打开google
>>> import urllib>>> f = urllib.urlopen('http://www.google.com.hk/')>>> firstLine = f.readline()   #读取html页面的第一行>>> firstLine'<!doctype html><html itemscope="" itemtype="http://schema.org/WebPage"><head><meta content="/images/google_favicon_128.png" itemprop="image"><title>Google</title><script>(function(){\n'
 urlopen返回对象提供方法:-         read() , readline() ,readlines() , fileno() , close() :这些方法的使用方式与文件对象完全一样-         info():返回一个httplib.HTTPMessage对象,表示远程服务器返回的头信息-         getcode():返回Http状态码。如果是http请求,200请求成功完成;404网址未找到-         geturl():返回请求的url 

2.urllib.urlretrieve(url[,filename[,reporthook[,data]]])

urlretrieve方法将url定位到的html文件下载到你本地的硬盘中。如果不指定filename,则会存为临时文件。urlretrieve()返回一个二元组(filename,mine_hdrs)临时存放:
>>> filename = urllib.request.urlretrieve('http://www.google.com.hk/')>>> type(filename)<type 'tuple'>>>> filename[0]'/tmp/tmp8eVLjq'>>> filename[1]<httplib.HTTPMessage instance at 0xb6a363ec>
存为本地文件:
>>> filename = urllib.urlretrieve('http://www.google.com.hk/',filename='/home/dzhwen/python文件/Homework/urllib/google.html')>>> type(filename)<type 'tuple'>>>> filename[0]'/home/dzhwen/python\xe6\x96\x87\xe4\xbb\xb6/Homework/urllib/google.html'>>> filename[1]<httplib.HTTPMessage instance at 0xb6e2c38c>
 

3.urllib.request.urlcleanup()

清除由于urllib.request.urlretrieve()所产生的缓存 

4.urllib.request.quote(url)和urllib.request.quote_plus(url)

将url数据获取之后,并将其编码,从而适用与URL字符串中,使其能被打印和被web服务器接受。
>>> urllib.request.quote('http://www.baidu.com')'http%3A//www.baidu.com'>>> urllib.request.quote_plus('http://www.baidu.com')'http%3A%2F%2Fwww.baidu.com'

5.urllib.request.unquote(url)和urllibrequest.unquote_plus(url)

与4的函数相反。

6.urllib.request.urlencode(query)

将URL中的键值对以连接符&划分这里可以与urlopen结合以实现post方法和get方法:GET方法:
>>> import urllib.request>>> params=urllib.request.urlencode({'spam':1,'eggs':2,'bacon':0})>>> params'eggs=2&bacon=0&spam=1'>>> f=urllib.request.urlopen("http://python.org/query?%s" % params)>>> print f.read()
POST方法:
>>> import urllib>>> parmas = urllib.request,urlencode({'spam':1,'eggs':2,'bacon':0})>>> f=urllib.request.urlopen("http://python.org/query",parmas)>>> f.read()
 基本就这些,关于对象获取的方法就不赘述了。
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签:  python 爬虫