您的位置:首页 > 其它

探讨scrapy当中的pipeline何时获取item。

2017-09-21 14:41 309 查看
  问题来自于在运行spider过程中,pipeline当中写入的数据库存储过程始终得不到item传递的数据,经调试,发现了pipeline被调用的机制。

  写一段代码来测试:

  spider.py:

import scrapy
from items import Work1Item #自定义的item,用于结构化数据

class Work1Spider(scrapy.Spider):
name = 'work1'
start_urls = [
'http://quotes.toscrape.com/',
]

def parse(self, response):
for quote in response.xpath('//div[@class="quote"]'):
item = Work1Item()
item['author'] = quote.xpath('.//small[@class="author"]/text()').extract_first()
item['tags'] = quote.xpath('.//div[@class="tags"]/a[@class="tag"]/text()').extract()
item['quote'] = quote.xpath('./span[@class="text"]/text()').extract_first()
next_page_url = response.xpath('//li[@class="next"]/a/@href').extract_first()
if next_page_url is not None:
yield scrapy.Request(response.urljoin(next_page_url))
  pipeline.py: 

class Work1Pipeline(object):
def process_item(self, item, spider):
print item
return item
  settings.py当中开启pipeline:
ITEM_PIPELINES = {
'work1.pipelines.Work1Pipeline': 300,
}


  运行结果发现item并没有被print。

  也就是说在某片代码中缺少了成分,使得pipeline并没有获取到item。

  经过调试发现在spider.py中的parse()内部,在我们得到next_page_url之前,加上“yield item”,一切就搞定了。

  所以,pipeline是在爬取过程中返回item时调用的,pipeline对item处理后返回item,以便对下一个item进行处理。
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: