您的位置:首页 > 其它

scrapy中同时启动多个爬虫

2017-03-29 00:00 225 查看
摘要: 在scrappy中,有时需要在一个脚本里同时启动多个爬虫

直接贴代码:

#!/usr/bin/env python3
# -*- coding: utf-8 -*-

from scrapy.crawler import CrawlerProcess
from scrapy.utils.project import get_project_settings

process = CrawlerProcess(get_project_settings())
process.crawl('A_spider')
process.crawl('B_spider')
process.crawl('C_spider')

process.start()
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: