Python开发中爬虫使用代理proxy抓取网页的方法示例
2017-09-26 09:34
931 查看
本文实例讲述了Python开发中爬虫使用代理proxy抓取网页的方法。分享给大家供大家参考,具体如下:
代理类型(proxy):透明代理 匿名代理 混淆代理和高匿代理. 这里写一些python爬虫使用代理的知识, 还有一个代理池的类. 方便大家应对工作中各种复杂的抓取问题。
urllib 模块使用代理
urllib/urllib2使用代理比较麻烦, 需要先构建一个ProxyHandler的类, 随后将该类用于构建网页打开的opener的类,再在request中安装该opener.
代理格式是"http://127.0.0.1:80",如果要账号密码是"http://user:password@127.0.0.1:80".
proxy="http://127.0.0.1:80" # 创建一个ProxyHandler对象 proxy_support=urllib.request.ProxyHandler({'http':proxy}) # 创建一个opener对象 opener = urllib.request.build_opener(proxy_support) # 给request装载opener urllib.request.install_opener(opener) # 打开一个url r = urllib.request.urlopen('http://youtube.com',timeout = 120)
requests 模块 使用代理
requests使用代理要比urllib简单多了…这里以单次代理为例. 多次的话可以用session一类构建.
如果需要使用代理,你可以通过为任意请求方法提供 proxies 参数来配置单个请求:
import requests proxies = { "http": "http://127.0.0.1:3128", "https": "http://127.0.0.1:2080", } r=requests.get("http://youtube.com", proxies=proxies) print r.text
你也可以通过环境变量 HTTP_PROXY 和 HTTPS_PROXY 来配置代理。
export HTTP_PROXY="http://127.0.0.1:3128" export HTTPS_PROXY="http://127.0.0.1:2080" python >>> import requests >>> r=requests.get("http://youtube.com") >>> print r.text
若你的代理需要使用HTTP Basic Auth,可以使用 http://user:password@host/ 语法:
proxies = { "http": "http://user:pass@127.0.0.1:3309/", }
python的代理使用非常简单, 最重要的是要找一个网络稳定可靠的代理。
更多关于Python相关内容可查看本站专题:《Python Socket编程技巧总结》、《Python数据结构与算法教程》、《Python函数使用技巧总结》、《Python字符串操作技巧汇总》、《Python入门与进阶经典教程》及《Python文件与目录操作技巧汇总》
希望本文所述对大家Python程序设计有所帮助。
您可能感兴趣的文章:
相关文章推荐
- Python爬虫使用代理proxy抓取网页
- Python使用正则表达式抓取网页图片的方法示例
- python3实现网络爬虫(7)-- 使用ip代理抓取网页
- Python爬虫之三种网页抓取方法性能比较
- 讲解Python的Scrapy爬虫框架使用代理进行采集的方法
- Python实现抓取网页生成Excel文件的方法示例
- Python3使用requests包抓取并保存网页源码的方法
- Python使用代理抓取网页内容
- 讲解Python的Scrapy爬虫框架使用代理进行采集的方法
- Python之多线程爬虫抓取网页图片的示例代码
- Python3.7 爬虫(二)使用 Urllib2 与 BeautifulSoup4 抓取解析网页
- 使用python开发hadoop streaming程序及hadoop python网页抓取例子
- 通过代理抓取网页code方法 proxy httpurlconnection
- 【Python3.6爬虫学习记录】(六)urllib详细使用方法(header,代理,超时,认证,异常处理)
- python爬虫(20)使用真实浏览器打开网页的两种方法
- 零基础写python爬虫之使用urllib2组件抓取网页内容
- python开发爬虫----urllib2下载网页方法
- 零基础写python爬虫之使用urllib2组件抓取网页内容
- python使用IP代理示例及出错解决方法
- python使用ip代理抓取网页