django--中运行scrapy框架
钉钉、微博极速扩容黑科技,点击观看阿里云弹性计算年度发布会!>>>
1.新建一个django项目,
2.前端展示一个按钮
<form action="/start/" method="POST"> {% csrf_token %} <input type="submit" value="启动爬虫"> </form>
3.在django项目的根目录创建scrapy项目
4.cmd命令行运行:scrapyd 启动服务
5.将scrapy项目部署到当前工程:scrapyd-deploy 爬虫名称 -p 项目名称
6.views.py
# 首页 def index(request): return render(request,'index.html',locals()) def start(request): if request.method == 'POST': # 启动爬虫 url = 'http://localhost:6800/schedule.json' data = {'project': 'ABCkg', 'spider': 'abckg'} print(requests.post(url=url, data=data)) return JsonResponse({'result':'ok'})
7.在本地6800端口点击jobs当前爬虫项目就在运行了。
8.写一个按钮,点击停止scrapy爬虫
def stop(request): if request.method == 'POST': # 停止爬虫 url = 'http://127.0.0.1:6800/cancel.json' data={"project":'ABCkg','job':'b7fe64ee7ad711e9b711005056c00008'} print(requests.post(url=url, data=data)) return JsonResponse({'result':'stop'})
总结:
----------------scrapyd 管理----------------------
1、获取状态
http://127.0.0.1:6800/daemonstatus.json
2、获取项目列表
http://127.0.0.1:6800/listprojects.json
3、获取项目下已发布的爬虫列表
http://127.0.0.1:6800/listspiders.json?project=myproject
4、获取项目下已发布的爬虫版本列表
http://127.0.0.1:6800/listversions.json?project=myproject
5、获取爬虫运行状态
http://127.0.0.1:6800/listjobs.json?project=myproject
6、启动服务器上某一爬虫(必须是已发布到服务器的爬虫)
http://localhost:6800/schedule.json
(post方式,data={"project":myproject,"spider":myspider})
7、删除某一版本爬虫
http://127.0.0.1:6800/delversion.json -d project=项目名 -d versions
(post方式,data={"project":myproject,"version":myversion})
8、删除某一工程,包括该工程下的各版本爬虫
http://127.0.0.1:6800/delproject.json
(post方式,data={"project":myproject})
9、取消爬虫
http://127.0.0.1:6800/cancel.json
(post方式,data={"project":myproject,'job':myjob})
PS:网络一直不好,几张比较直观的截图粘不上来,如遇不懂,可以参考我的上一篇博客
- 如何在django中运行scrapy框架
- 爬虫框架Scrapy 之(四) --- scrapy运行原理(管道)
- scrapy框架学习-爬取腾讯社招信息-部分运行结果
- scrapy框架的创建、运行
- 分析Python的Django框架的运行方式及处理流程
- 在Django框架中运行Python应用全攻略
- 搭建Python的Django框架环境并建立和运行第一个App的教程
- python 爬虫框架scrapy 命令行运行报错问题
- 分析Python的Django框架的运行方式及处理流程
- linux下简单将python的django开发框架运行起来
- 搭建Python的Django框架环境并建立和运行第一个App的教程
- 分析Python的Django框架的运行方式及处理流程
- 爬虫利器Scrapy框架:2:使用runspider运行爬虫
- 爬虫利器Scrapy框架:3:创建工程并运行爬虫
- python web学习笔记二---Django框架应用和基本运行方式(基础的用户登录)
- 详解Python网络框架Django和Scrapy安装指南
- pycharm中django项目中的scrapy创建运行
- 关于django框架运行时的错误:"python: can't open file 'manage.py': [Errno 2] No such file or directory"(¥36)
- 在使用django框架搭建web中如果需要单独运行py脚本出现AppRegistryNotReady("Apps aren't loaded yet.")问题
- Ubuntu下运行scrapy爬虫框架No module named 'OpenSSL'