scrapy_redis分布式爬虫 从redis写到mysql数据库中
2018-02-24 13:57
579 查看
import redis
import MySQLdb
import json
def process_item():
# 创建redis数据库连接
rediscli = redis.Redis(host = “127.0.0.1”, port = 6379, db = 0)
if name == “main“:
process_item()
import MySQLdb
import json
def process_item():
# 创建redis数据库连接
rediscli = redis.Redis(host = “127.0.0.1”, port = 6379, db = 0)
# 创建mysql数据库连接 mysqlcli = MySQLdb.connect(host = "127.0.0.1", port = 3306, \ user = "", passwd = "", db = "数据库") offset = 0 while True: # 将数据从redis里pop出来 source, data = rediscli.blpop("表名:items") item = json.loads(data) try: # 创建mysql 操作游标对象,可以执行mysql语句 cursor = mysqlcli.cursor() cursor.execute("insert into 表名 (username, age) values (%s, %s)", [item['username'], item['age']]) # 提交事务 mysqlcli.commit() # 关闭游标 cursor.close() offset += 1 print offset except: pass
if name == “main“:
process_item()
相关文章推荐
- scrapy_redis分布式爬虫 从redis数据库写入MongoDB中
- scrapy爬虫数据存入mysql数据库
- 基于Python+scrapy+redis的分布式爬虫实现框架
- Redis-Scrapy分布式爬虫:当当网图书为例
- windows下scrapy-redis如何为不同的爬虫项目分配不同的db,而不仅仅使用db0
- Python之Scrapy框架Redis实现分布式爬虫详解
- scrapy框架爬虫将数据保存到MySQL数据库(20170214)
- scrapy-redis 更改队列和分布式爬虫
- 新浪微博爬虫(Scrapy、Redis)环境搭建
- 【转】Python爬虫(7)_scrapy-redis
- 第三百五十七节,Python分布式爬虫打造搜索引擎Scrapy精讲—利用开源的scrapy-redis编写分布式爬虫代码
- scrapy_redis 相关: 将 jobdir 保存的爬虫进度转移到 Redis
- 基于Python,scrapy,redis的分布式爬虫实现框架
- scrapy爬虫框架将数据保存Mysql数据库中
- scrapy-redis实现爬虫分布式爬取分析与实现
- 三十二、scrapy爬虫抓取网页写入mysql数据库
- 基于Python使用scrapy-redis框架实现分布式爬虫 注
- (5)分布式下的爬虫Scrapy应该如何做-windows下的redis的安装与配置
- 下scrapy-redis如何为不同的爬虫项目分配不同的db,而不仅仅使用db0