您的位置:首页 > 编程语言 > Python开发

python爬虫框架scrapy一次执行多个爬虫文件

2017-09-15 15:12 459 查看
在scrapy工程,和spider文件夹同一目录下,创建一个.py文件
import os
os.system("scrapy crawl 爬虫1")
os.system("scrapy crawl 爬虫2")
可以写多个。这样就能按顺序执行。
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: