Python3中使用代理访问网页
2011-11-05 19:16
423 查看
实验室使用代理上网,因此如果使用Python写程序访问网络的话就必须设置代理。
Python3将urllib和urllib2合二为一,而且重组了下包结构。网上很多的代码都是Python2的,所以自己看了下文档。
但是问题还是有的,根据http://markmail.org/thread/vzegucz53ouwykz4#query:+page:1+mid:2pluljbacgfwte3j+state:results中所述,urllib2 只支持 HTTP_GET 的代理,而CCProxy只支持HTTP_Connect的代理,因此如果上网的话就不能使用CCProxy作为代理了。
代码如下:
Python3将urllib和urllib2合二为一,而且重组了下包结构。网上很多的代码都是Python2的,所以自己看了下文档。
但是问题还是有的,根据http://markmail.org/thread/vzegucz53ouwykz4#query:+page:1+mid:2pluljbacgfwte3j+state:results中所述,urllib2 只支持 HTTP_GET 的代理,而CCProxy只支持HTTP_Connect的代理,因此如果上网的话就不能使用CCProxy作为代理了。
代码如下:
import urllib.request proxy_handler = urllib.request.ProxyHandler({'http':'123.123.2123.123:8080'}) proxy_auth_handler = urllib.request.ProxyBasicAuthHandler() proxy_auth_handler.add_password('realm', '123.123.2123.123', 'user', 'password') opener = urllib.request.build_opener(urllib.request.HTTPHandler, proxy_handler) f = opener.open('http://www.baidu.com') a = f.read()
相关文章推荐
- 一个简单的使用代理访问百度页面内容的python脚本
- python使用代理访问服务器
- python使用代理ip访问网站
- 使用Python访问并下载网页内容
- 使用python访问网页
- python,使用代理模式访问淘宝,百度,京东,阿里
- python使用ip代理抓取网页
- WebBrower使用 Http 代理访问网页
- python使用代理访问网站
- python3使用多代理访问网站
- python3使用多代理访问网站
- python]用urllib2设置代理访问网页
- 使用python找出nginx访问日志中访问次数最多的10个ip排序生成网页
- python使用代理ip访问网站的实例
- python selenium Frefox使 用代理访问网页
- 使用Python访问并下载网页内容
- python使用代理访问服务器
- 使用Python访问并下载网页内容
- Python2设置用户代理User Agent访问网页
- python3实现网络爬虫(7)-- 使用ip代理抓取网页