urllib2.urlopen超时问题
2015-11-26 15:37
323 查看
原帖地址:http://hi.baidu.com/yss1983/item/933fbe45a09c43e01381da06
没有设置timeout参数,结果在网络环境不好的情况下,时常出现read()方法没有任何反应的问题,程序卡死在read()方法里,搞了大半天,才找到问题,给urlopen加上timeout就ok了,设置了timeout之后超时之后read超时的时候会抛出socket.timeout异常,想要程序稳定,还需要给urlopen加上异常处理,再加上出现异常重试,程序就完美了。
import urllib2 url='http://www.facebook.com/' fails
= 0 while True: try: if fails >= 20: break req = urllib2.Request(url) response = urllib2.urlopen(req, None, 3) page = response.read() except: fails += 1 print '网络连接出现问题, 正在尝试再次请求: ', fails else: break
有时候我们在爬取网络数据时,会因为对方网速缓慢、服务器超时等原因, 导致
urllib2.urlopen() 之后的 read()操作(下载内容)卡死,要解决这个问题方法有如下几个:
问题描述:
没有设置timeout参数,结果在网络环境不好的情况下,时常出现read()方法没有任何反应的问题,程序卡死在read()方法里,搞了大半天,才找到问题,给urlopen加上timeout就ok了,设置了timeout之后超时之后read超时的时候会抛出socket.timeout异常,想要程序稳定,还需要给urlopen加上异常处理,再加上出现异常重试,程序就完美了。import urllib2 url='http://www.facebook.com/' fails
= 0 while True: try: if fails >= 20: break req = urllib2.Request(url) response = urllib2.urlopen(req, None, 3) page = response.read() except: fails += 1 print '网络连接出现问题, 正在尝试再次请求: ', fails else: break
解决方案:
有时候我们在爬取网络数据时,会因为对方网速缓慢、服务器超时等原因, 导致urllib2.urlopen() 之后的 read()操作(下载内容)卡死,要解决这个问题方法有如下几个:
1、为urlopen设置可选参数 timeout
import urllib2 # http://classweb.loxa.com.tw/dino123/air/P1000772.jpg r = urllib2.Request("http://classweb.loxa.com.tw/dino123/air/P1000775.jpg") try: print 111111111111111111 f = urllib2.urlopen(r, data=None, timeout=3) print 2222222222222222 result = f.read() print 333333333333333333 except Exception,e: print "444444444444444444---------" + str(e) print "55555555555555"
2、设置全局的socket超时:
import socket socket.setdefaulttimeout(10.0) 或者使用:httplib2 or timeout_urllib2 http://code.google.com/p/httplib2/wiki/Examples http://code.google.com/p/timeout-urllib2/source/browse/trunk/timeout_urllib2.py
3、使用定时器 timer
from urllib2 import urlopen from threading import Timer url = "http://www.python.org" def handler(fh): fh.close() fh = urlopen(url) t = Timer(20.0, handler,[fh]) t.start() data = fh.read() #如果二进制文件需要换成二进制的读取方式 t.cancel()
相关文章推荐
- Python动态类型的学习---引用的理解
- Python3写爬虫(四)多线程实现数据爬取
- 垃圾邮件过滤器 python简单实现
- 下载并遍历 names.txt 文件,输出长度最长的回文人名。
- install and upgrade scrapy
- Scrapy的架构介绍
- Centos6 编译安装Python
- 使用Python生成Excel格式的图片
- 让Python文件也可以当bat文件运行
- [Python]推算数独
- Python中zip()函数用法举例
- Python中map()函数浅析
- Python将excel导入到mysql中
- Python在CAM软件Genesis2000中的应用
- 使用Shiboken为C++和Qt库创建Python绑定
- FREEBASIC 编译可被python调用的dll函数示例
- Python 七步捉虫法