您的位置:首页 > 其它

Scrapy性能分析

2016-04-25 20:16 190 查看
之前讲过(这里),当Scrapy正常运行时,下载器是瓶颈。在这种情况下,你会看到调度器中有一些请求,下载器中的并发请求数目已经达到最大值,而scraper(爬虫和pipeline)的负载比较轻,正在处理的
Response
对象数目也不会一直增长。



主要有三个设置项来控制下载器的容量:
CONCURRENT_REQUESTS
CONCURRENT_REQUESTS_PER_DOMAIN


CONCURRENT_REQUESTS_PER_IP
。第一个设置项提供了一个粗略的控制,无论如何不会有超过
CONCURRENT_REQUESTS
数目的请求被并发下载。在另一方面,如果你的目标域名只是一个或者少数的几个,那么
CONCURRENT_REQUESTS_PER_DOMAIN
可能就会提供对并发请求数目的更进一步的限制。不过如果你设置了
CONCURRENT_REQUESTS_PER_IP
,那么
CONCURRENT_REQUESTS_PER_DOMAIN
就会被忽略,这时的限制会是针对每个IP的。在很多域名都反射一个服务器的时候,这会帮你避免过度地访问远程服务器。

为了使我们的分析工作简单一点,我们把
CONCURRENT_REQUESTS_PER_IP
保持为默认值(0),这样就禁用了对每个IP的限制,并且把
CONCURRENT_REQUESTS_PER_DOMAIN
设置成一个很大的值(1000000) 。这样的设置实际上就是禁用了这些限制,这样下载器的并发请求数目就只由
CONCURRENT_REQUESTS
来控制了。

我们希望系统的吞吐量决定于它下载一个页面所花费的平均时间,包括远程服务器响应的时间和我们自己的系统(Linux,Twisted/Python)的延迟时间

。再把启动时间和关闭时间也算进来,包括得到一个
Response
对象的时间与它的
Item
从pipeline中处理完毕的时间之差,以及程序启动后到得到第一个
Response
对象之间的延迟。

总的来说,如果你需要完成一个共有N个请求的作业,并且爬虫已经被调整好了,那么程序就可能在

时间内运行完。

对于上面公式的大多数参数我们都没法控制它们,我们可能通过使用一个性能比较好的服务器来稍稍控制一下



(这个参数甚至都不值去控制它,因为每次运行我们一般只启动和关闭程序一次)。除了这些对一个工作量为N个请求的作业的稍微改善,所有我们能调整的只是
CONCURRENT_REQUESTS
的值,这个主要取决于我们要多频繁地访问远程服务器。如果我们把它设置成一个很大的值,那么在某个时候,我们的服务器的CPU和远程服务器的承受能力都会达到一个饱和状态,也就是说,那个时候

的值会急剧上升,因为目标网站会限制我们的访问或者禁止掉我们的IP、或者我们直接把目标网站搞瘫痪了。

下面运行一个实验。我们分别使用



这两个条件为变量来运行爬虫:

$ for delay in 0.125 0.25 0.50; do for concurrent in 8 16 32 64; do
time scrapy crawl speed -s SPEED_TOTAL_ITEMS=2000 -s CONCURRENT_REQUESTS=$concurrent -s SPEED_T_RESPONSE=$delay
done; done


下面是结果:



组织一下上面的那个方程,可以得到一个简单的形式

,而x = N/CONCURRENT_REQUESTS。用最小二乘法和表格中的数据,可以得到





值很小可以忽略,而从开始到得到第一个响应的时间虽然比较长但是对于数千的URL以及很长的运行时间就不足为虑了。下面是计算吞吐量的一个公式:

内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: