您的位置:首页 > 编程语言 > Python开发

python开发爬虫----urllib2下载网页方法

2016-08-12 19:58 471 查看
urllib2下载网页方法1:

import urllib2

#直接请求
response = urllib2.urlopen('http://www.baidu.com')

#获取状态码,如果返回200则获取成功
print response.getcode()

#读取内容
cont = response.read()

urllib2下载网页方法2:添加data http header
import urllib2

#创建request对象
request = urllib2.Request(url)

#添加数据
request.add_data('a','1')

#添加http的header
request.add_header('User-Agent','Mozilla/5.0')

#发送请求取得结果
response = urllib2.urlopen(request)

urllib2下载网页方法3:添加特殊情景的处理器
import urllib2,cookielib

#创建cookie容器
cj = cookielib.CookieJar()

#创建opener
opener = urllib2.build_opener(urllib2.HTTPCookieProcesser(cj))

#给urllib2安装opener
urllib2.install_opener(opener)

#使用带cookie的urllib2访问网页
response = urllib2.urlopen('http://www.baidu.com')
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: