Scrapy之日志文件的产生
2016-06-23 22:36
134 查看
我们写爬虫的时候,也许会需要记录一些数据或者异常信息,通常这些数据我们会希望以日志的形式保存下来。
首先,我们在需要产生日志的python文件开头引入一个logging包。
当然,我们还需要一些设置,就是修改一些我们的setting文件。我们需要在setting文件里面加入LOG_FILE =“file_name”这样一个变量。
爬虫运行后,就会生成这样一个文件,专门用来记录self.log函数产生的log信息了。
首先,我们在需要产生日志的python文件开头引入一个logging包。
import logging然后,我们可以用
self.log("your log information")这样的方式产生你的log文件。
当然,我们还需要一些设置,就是修改一些我们的setting文件。我们需要在setting文件里面加入LOG_FILE =“file_name”这样一个变量。
爬虫运行后,就会生成这样一个文件,专门用来记录self.log函数产生的log信息了。
相关文章推荐
- 远程过程调用RPC
- A星寻路
- 算法基础:排序与查找
- 数据库的各种语句
- SEO工程实施流程、计划、规范
- HTTP网页错误代码---网络、端口
- FPGA视觉从入门到放弃——稀疏编码的原理与简单应用
- Github Pages
- 正则表达式 学习笔记(二)
- 04.Java 集合 - Stack
- border-bottom-style(下边框的样式)
- unity通过android adb查看真机日志
- cocos2dx-精灵如何被渲染and纹理如何被管理、产生与销毁
- 形态学操作实现
- scala学习手记19 - Option类型
- PDB文件:每个开发人员都必须知道的
- mean开发之五:探讨node配置之3种路径和2种模块类型
- js 面试大全
- 大一下学习总结
- 查看linux库文件32位还是64位