您的位置:首页 > 数据库 > Redis

python 全栈开发,Day140(RabbitMQ,基于scrapy-redis实现分布式爬虫)

2018-10-10 15:48 746 查看

python 全栈开发,Day140(RabbitMQ,基于scrapy-redis实现分布式爬虫)

 

一、RabbitMQ

队列

在生产者消费模型中,比如去餐馆吃饭的例子。生产者相当于厨师,队列相当于服务员,消费者就是你。

我们必须通过服务员,才能吃饭!

如果队列满了,队列会一直hold住。必须让消费者,获取一个,队列才能解除hold状态。

队列本身就有一个锁,保证数据安全

 

举例:

import queue
q = queue.Queue(maxsize=10)
q.put(10)
q.put(8)
q.put(6)

print(q.get())
print(q.get())
print(q.get())
print(q.get())
View Code

执行输出:

10
8
6

注意:此时程序并没有结束掉!由于队列已经空了,最后一个get操作会hold住。

 

如果不想hold住,加一个参数block=0就可以了

import queue
q = queue.Queue(maxsize=10)
q.put(10)
q.put(8)
q.put(6)

print(q.get())
print(q.get())
print(q.get())
print(q.get(block=0))
View Code

执行报错

queue.Empty

 

这个时候,应该使用try

import queue
q = queue.Queue(maxsize=10)
q.put(10)
q.put(8)
q.put(6)

print(q.get())
print(q.get())
print(q.get())
try:
print(q.get(block=0))
except Exception as e:
print("raise Empty")
View Code

 

关于队列,请参考链接:

https://www.cnblogs.com/yuanchenqi/articles/6755717.html#_label1

 

什么叫消息队列

消息(Message)是指在应用间传送的数据。消息可以非常简单,比如只包含文本字符串,也可以更复杂,可能包含嵌入对象。

消息队列(Message Queue)是一种应用间的通信方式,消息发送后可以立即返回,由消息系统来确保消息的可靠传递。消息发布者只管把消息发布到 MQ 中而不用管谁来取,消息使用者只管从 MQ 中取消息而不管是谁发布的。这样发布者和使用者都不用知道对方的存在。

为何用消息队列

从上面的描述中可以看出消息队列是一种应用间的异步协作机制,那什么时候需要使用 MQ 呢?

以常见的订单系统为例,用户点击【下单】按钮之后的业务逻辑可能包括:扣减库存、生成相应单据、发红包、发短信通知。在业务发展初期这些逻辑可能放在一起同步执行,随着业务的发展订单量增长,需要提升系统服务的性能,这时可以将一些不需要立即生效的操作拆分出来异步执行,比如发放红包、发短信通知等。这种场景下就可以用 MQ ,在下单的主流程(比如扣减库存、生成相应单据)完成之后发送一条消息到 MQ 让主流程快速完结,而由另外的单独线程拉取MQ的消息(或者由 MQ 推送消息),当发现 MQ 中有发红包或发短信之类的消息时,执行相应的业务逻辑。

详细

RabbitMQ 

RabbitMQ 是一个由 Erlang 语言开发的 AMQP 的开源实现。

rabbitMQ是一款基于AMQP协议的消息中间件,它能够在应用之间提供可靠的消息传输。在易用性,扩展性,高可用性上表现优秀。使用消息中间件利于应用之间的解耦,生产者(客户端)无需知道消费者(服务端)的存在。而且两端可以使用不同的语言编写,大大提供了灵活性。

 

官方文档:

https://www.rabbitmq.com/tutorials/tutorial-one-python.html

中文文档:

http://rabbitmq.mr-ping.com/

 

rabbitMQ安装

linux平台

1.安装配置epel源
rpm -ivh http://dl.fedoraproject.org/pub/epel/6/i386/epel-release-6-8.noarch.rpm

2.安装erlang
yum -y install erlang

3.安装RabbitMQ
yum -y install rabbitmq-server

4.启动服务
centos6:
service rabbitmq-server start

centos7:
systemctl start rabbitmq-server

5.启动web管理插件
rabbitmq-plugins enable rabbitmq_management

6.重启rabbitmq生效web插件
centos6:
service rabbitmq-server restart

centos7:
systemctl restart rabbitmq-server

访问页面:  http://ip地址:15672
# 添加账户
rabbitmqctl add_user admin 123456
# 设置为超级管理员
rabbitmqctl set_user_tags admin administrator
View Code

 

mac

bogon:~ yuan$ brew install rabbitmq
bogon:~ yuan$ export PATH=$PATH:/usr/local/sbin
bogon:~ yuan$ rabbitmq-server

 

windows

1.安装erlang
双击运行opt_win64_21.1.exe

2.安装rabbitmq
双击运行 rabbitmq-server-3.7.8

3.添加windows环境变量
Path=%ERLANG_HOME%\bin;%RABBITMQ_SERVER%\sbin

4.检测rabbitmq状态
rabbitmqctl status

5.启动web管理插件
rabbitmq-plugins enable rabbitmq_management

6.登录web管理界面,账号密码默认都是guest,guest
http://127.0.0.1:15672/

rabbitmq 5672  是提供客户端连接的端口,  15672是提供web管理的端口
View Code

 

rabbitMQ工作模型

简单模式

 

安装pkia

pip3 install pika

 

示例

注意:本环境的RabbitMQ是安装在Centos 7 x64系统上面的,IP地址为:192.168.142.128,默认端口5672

生产者

producer.py

import pika

# 基于socket连接中间服务器上的rabbitmq
connection = pika.BlockingConnection(pika.ConnectionParameters(host='192.168.142.128'))

#  创建对象
channel = connection.channel()

# 声明一个名为hello的队列
channel.queue_declare(queue='hello')

# 插数据
channel.basic_publish(exchange='',   # 交换机
routing_key='hello', # 指定的队列名称
body='Hello Yuan!')  # 值

print("[x] Sent 'Hello Yuan!'")
connection.close()
View Code

注意:在简单模式中,是没有交换机的。所以exchange参数的值为空

 

消费者

consumer.py

import pika

connection = pika.BlockingConnection(pika.ConnectionParameters(host='192.168.142.128'))
channel = connection.channel()

# 声明一个名为hello的队列
channel.queue_declare(queue='hello')

# 确定回调函数
def callback(ch, method, properties, body):
print(" Received %r" % body)

channel.basic_consume(callback,
queue='hello',
no_ack=True)

print(' [*] Waiting for messages. To exit press CTRL+C')
channel.start_consuming()
View Code

 

先执行producer.py,输出:

[x] Sent 'Hello Yuan!'

再执行consumer.py,输出:

[*] Waiting for messages. To exit press CTRL+C
Received b'Hello Yuan!'

消费者接收到了 Hello Yuan!

 

为什么消费者要声明一个名为hello的队列呢?生产者,不是明明已经声明了队列了吗?

注意:

如果生产者先运行,那么就会创建hello队列。那么消费者运行时,就不会创建hello队列。这句代码,不会执行!

channel.queue_declare(queue='hello')

如果消费者先执行,那么这里就会创建。假设没有创建hello队列,执行就会报错!
其实生产者和消费者,谁来创建,都无所谓。只要保证队列存在就可以了!

相关参数

(1) no-ack = False

如果消费者遇到情况(its channel is closed, connection is closed, or TCP connection is lost)挂掉了,那么,RabbitMQ会重新将该任务添加到队列中。

  • 回调函数中的
    ch.basic_ack(delivery_tag=method.delivery_tag)
  • basic_comsume中的
    no_ack=False

消息接收端应该这么写:

import pika

connection = pika.BlockingConnection(pika.ConnectionParameters(
host='10.211.55.4'))
channel = connection.channel()

channel.queue_declare(queue='hello')

def callback(ch, method, properties, body):
print(" [x] Received %r" % body)
import time
time.sleep(10)
print 'ok'
ch.basic_ack(delivery_tag = method.delivery_tag)

channel.basic_consume(callback,
queue='hello',
no_ack=False)

print(' [*] Waiting for messages. To exit press CTRL+C')
channel.start_consuming()
View Code

 

(2)  durable  :消息不丢失

生产者

import pika

connection = pika.BlockingConnection(pika.ConnectionParameters(host='10.211.55.4'))
channel = connection.channel()

# make message persistent
channel.queue_declare(queue='hello', durable=True)

channel.basic_publish(exchange='',
routing_key='hello',
body='Hello World!',
properties=pika.BasicProperties(
delivery_mode=2, # make message persistent
))
print(" [x] Sent 'Hello World!'")
connection.close()
View Code

 

消费者

import pika

connection = pika.BlockingConnection(pika.ConnectionParameters(host='10.211.55.4'))
channel = connection.channel()

# make message persistent
channel.queue_declare(queue='hello', durable=True)

def callback(ch, method, properties, body):
print(" [x] Received %r" % body)
import time
time.sleep(10)
print 'ok'
ch.basic_ack(delivery_tag = method.delivery_tag)

channel.basic_consume(callback,
queue='hello',
no_ack=False)

print(' [*] Waiting for messages. To exit press CTRL+C')
channel.start_consuming()
View Code

 

(3) 消息获取顺序

默认消息队列里的数据是按照顺序被消费者拿走,例如:消费者1 去队列中获取 奇数 序列的任务,消费者1去队列中获取 偶数 序列的任务。

channel.basic_qos(prefetch_count=1) 表示谁来谁取,不再按照奇偶数排列

import pika

connection = pika.BlockingConnection(pika.ConnectionParameters(host='10.211.55.4'))
channel = connection.channel()

# make message persistent
channel.queue_declare(queue='hello')

def callback(ch, method, properties, body):
print(" [x] Received %r" % body)
import time
time.sleep(10)
print 'ok'
ch.basic_ack(delivery_tag = method.delivery_tag)

channel.basic_qos(prefetch_count=1)

channel.basic_consume(callback,
queue='hello',
no_ack=False)

print(' [*] Waiting for messages. To exit press CTRL+C')
channel.start_consuming()
View Code

 

exchange模型

3.1 发布订阅

发布订阅和简单的消息队列区别在于,发布订阅会将消息发送给所有的订阅者,而消息队列中的数据被消费一次便消失。所以,RabbitMQ实现发布和订阅时,会为每一个订阅者创建一个队列,而发布者发布消息时,会将消息放置在所有相关队列中。

关键参数:

exchange type = fanout

 

生产者

import pika
import sys

connection = pika.BlockingConnection(pika.ConnectionParameters(
host='localhost'))
channel = connection.channel()

channel.exchange_declare(exchange='logs',
type='fanout')

message = ' '.join(sys.argv[1:]) or "info: Hello World!"
channel.basic_publish(exchange='logs',
routing_key='',
body=message)
print(" [x] Sent %r" % message)
connection.close()
View Code

 

消费者

import pika

connection = pika.BlockingConnection(pika.ConnectionParameters(
host='localhost'))
channel = connection.channel()

channel.exchange_declare(exchange='logs',
type='fanout')

result = channel.queue_declare(exclusive=True)
queue_name = result.method.queue

channel.queue_bind(exchange='logs',
queue=queue_name)

print(' [*] Waiting for logs. To exit press CTRL+C')

def callback(ch, method, properties, body):
print(" [x] %r" % body)

channel.basic_consume(callback,
queue=queue_name,
no_ack=True)

channel.start_consuming()
View Code

 

3.2 关键字发送

关键参数

exchange type = direct

 

之前事例,发送消息时明确指定某个队列并向其中发送消息,RabbitMQ还支持根据关键字发送,即:队列绑定关键字,发送者将数据根据关键字发送到消息exchange,exchange根据 关键字 判定应该将数据发送至指定队列。

import pika
import sys

connection = pika.BlockingConnection(pika.ConnectionParameters(
host='localhost'))
channel = connection.channel()

channel.exchange_declare(exchange='direct_logs',
type='direct')

result = channel.queue_declare(exclusive=True)
queue_name = result.method.queue

severities = sys.argv[1:]
if not severities:
sys.stderr.write("Usage: %s [info] [warning] [error]\n" % sys.argv[0])
sys.exit(1)

for severity in severities:
channel.queue_bind(exchange='direct_logs',
queue=queue_name,
routing_key=severity)

print(' [*] Waiting for logs. To exit press CTRL+C')

def callback(ch, method, properties, body):
print(" [x] %r:%r" % (method.routing_key, body))

channel.basic_consume(callback,
queue=queue_name,
no_ack=True)

channel.start_consuming()
View Code

 

3.3 模糊匹配

关键参数

exchange type = topic

发送者路由值              队列中
old.boy.python          old.*  -- 不匹配
old.boy.python          old.#  -- 匹配

 

在topic类型下,可以让队列绑定几个模糊的关键字,之后发送者将数据发送到exchange,exchange将传入”路由值“和 ”关键字“进行匹配,匹配成功,则将数据发送到指定队列。

  • # 表示可以匹配 0 个 或 多个 单词
  • *  表示只能匹配 一个 单词

 示例:

import pika
import sys

connection = pika.BlockingConnection(pika.ConnectionParameters(
host='localhost'))
channel = connection.channel()

channel.exchange_declare(exchange='topic_logs',
type='topic')

result = channel.queue_declare(exclusive=True)
queue_name = result.method.queue

binding_keys = sys.argv[1:]
if not binding_keys:
sys.stderr.write("Usage: %s [binding_key]...\n" % sys.argv[0])
sys.exit(1)

for binding_key in binding_keys:
channel.queue_bind(exchange='topic_logs',
queue=queue_name,
routing_key=binding_key)

print(' [*] Waiting for logs. To exit press CTRL+C')

def callback(ch, method, properties, body):
print(" [x] %r:%r" % (method.routing_key, body))

channel.basic_consume(callback,
queue=queue_name,
no_ack=True)

channel.start_consuming()
View Code

 

由于时间关系,详细过程略...

 

本文参考链接:

https://www.cnblogs.com/yuanchenqi/articles/8507109.html

 

二、基于scrapy-redis实现分布式爬虫

 Scrapy-Redis则是一个基于Redis的Scrapy分布式组件。它利用Redis对用于爬取的请求(Requests)进行存储和调度(Schedule),并对爬取产生的项目(items)存储以供后续处理使用。scrapy-redi重写了scrapy一些比较关键的代码,将scrapy变成一个可以在多个主机上同时运行的分布式爬虫。

单机玩法:

 

按照正常流程就是大家都会进行重复的采集;我们都知道进程之间内存中的数据不可共享的,那么你在开启多个Scrapy的时候,它们相互之间并不知道对方采集了些什么那些没有没采集。那就大家伙儿自己玩自己的了。完全没没有效率的提升啊!

怎么解决呢?

这就是我们Scrapy-Redis解决的问题了,不能协作不就是因为请求和去重这两个不能共享吗?

那我把这两个独立出来好了。

将Scrapy中的调度器组件独立放到大家都能访问的地方不就OK啦!加上scrapy,Redis的后流程图就应该变成这样了

分布式玩法:

 

1. redis连接

配置scrapy使用redis提供的共享去重队列

# 在settings.py中配置链接Redis
REDIS_HOST = 'localhost'                            # 主机名
REDIS_PORT = 6379                                   # 端口
REDIS_URL = 'redis://user:pass@hostname:9001'       # 连接URL(优先于以上配置)
REDIS_PARAMS  = {}                                  # Redis连接参数
REDIS_PARAMS['redis_cls'] = 'myproject.RedisClient' # 指定连接Redis的Python模块
REDIS_ENCODING = "utf-8"                            # redis编码类型
# 默认配置:\python3.6\Lib\site-packages\scrapy_redis\defaults.py

 

2. dupefilter

DUPEFILTER_CLASS = "scrapy_redis.dupefilter.RFPDupeFilter"
#使用scrapy-redis提供的去重功能,查看源码会发现是基于Redis的集合实现的

# 需要指定Redis中集合的key名,key=存放不重复Request字符串的集合
DUPEFILTER_KEY = 'dupefilter:%(timestamp)s'
#源码:dupefilter.py内一行代码key = defaults.DUPEFILTER_KEY % {'timestamp': int(time.time())}

 

3. Scheduler

#1、源码:\python3.6\Lib\site-packages\scrapy_redis\scheduler.py

#2、settings.py配置

# Enables scheduling storing requests queue in redis.
SCHEDULER = "scrapy_redis.scheduler.Scheduler"

# 调度器将不重复的任务用pickle序列化后放入共享任务队列,默认使用优先级队列(默认),其他:PriorityQueue(有序集合),FifoQueue(列表)、LifoQueue(列表)
SCHEDULER_QUEUE_CLASS = 'scrapy_redis.queue.PriorityQueue'

# 对保存到redis中的request对象进行序列化,默认使用pickle
SCHEDULER_SERIALIZER = "scrapy_redis.picklecompat"

# 调度器中请求任务序列化后存放在redis中的key
SCHEDULER_QUEUE_KEY = '%(spider)s:requests'

# 是否在关闭时候保留原来的调度器和去重记录,True=保留,False=清空
SCHEDULER_PERSIST = True

# 是否在开始之前清空 调度器和去重记录,True=清空,False=不清空
SCHEDULER_FLUSH_ON_START = False

# 去调度器中获取数据时,如果为空,最多等待时间(最后没数据,未获取到)。如果没有则立刻返回会造成空循环次数过多,cpu占用率飙升
SCHEDULER_IDLE_BEFORE_CLOSE = 10

# 去重规则,在redis中保存时对应的key
SCHEDULER_DUPEFILTER_KEY = '%(spider)s:dupefilter'

# 去重规则对应处理的类,将任务request_fingerprint(request)得到的字符串放入去重队列
SCHEDULER_DUPEFILTER_CLASS = 'scrapy_redis.dupefilter.RFPDupeFilter'
View Code

 

4. RedisPipeline(持久化)

ITEM_PIPELINES = {   'scrapy_redis.pipelines.RedisPipeline': 300, }

#将item持久化到redis时,指定key和序列化函数

REDIS_ITEMS_KEY = '%(spider)s:items'
REDIS_ITEMS_SERIALIZER = 'json.dumps'

 

5. 从Redis中获取起始URL

scrapy程序爬取目标站点,一旦爬取完毕后就结束了,如果目标站点更新内容了,我们想重新爬取,那么只能再重新启动scrapy,非常麻烦
scrapy-redis提供了一种供,让scrapy从redis中获取起始url,如果没有scrapy则过一段时间再来取而不会关闭
这样我们就只需要写一个简单的脚本程序,定期往redis队列里放入一个起始url。

#具体配置如下

#1、编写爬虫时,起始URL从redis的Key中获取
REDIS_START_URLS_KEY = '%(name)s:start_urls'

#2、获取起始URL时,去集合中获取还是去列表中获取?True,集合;False,列表
REDIS_START_URLS_AS_SET = False    # 获取起始URL时,如果为True,则使用self.server.spop;如果为False,则使用self.server.lpop

 

由于时间关系,详细过程略...

 

本文参考链接:

https://www.cnblogs.com/yuanchenqi/articles/9509793.html#_label7

 

未完待续...

 

posted @ 2018-10-10 15:48 肖祥 阅读(...) 评论(...) 编辑 收藏
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: