如何快速理解Scrapy分布式爬虫、队列和布隆过滤器

发布时间:2021-10-25 17:06:44 作者:iii
来源:亿速云 阅读:171

本篇内容介绍了“如何快速理解Scrapy分布式爬虫、队列和布隆过滤器”的有关知识,在实际案例的操作过程中,不少人都会遇到这样的困境,接下来就让小编带领大家学习一下如何处理这些情况吧!希望大家仔细阅读,能够学有所成!

快速上手

Step 0:

首先安装 Scrapy-Distributed :

pip install scrapy-distributed

如果你没有所需要的运行条件,你可以启动两个 Docker 镜像进行测试 (RabbitMQ 和 RedisBloom):

# pull and run a RabbitMQ container.   docker run -d --name rabbitmq -p 0.0.0.0:15672:15672 -p 0.0.0.0:5672:5672 rabbitmq:3   # pull and run a RedisBloom container.   docker run -d --name redis-redisbloom -p 0.0.0.0:6379:6379 redislabs/rebloom:latest

Step 1 (非必须):

如果你有一个现成的爬虫,可以跳过这个 Step,直接到 Step 2。

创建一个爬虫工程,我这里以一个 sitemap 爬虫为例:

scrapy startproject simple_example

然后修改 spiders 文件夹下的爬虫程序文件:

from scrapy_distributed.spiders.sitemap import SitemapSpider  from scrapy_distributed.queues.amqp import QueueConfig  from scrapy_distributed.dupefilters.redis_bloom import RedisBloomConfig  class MySpider(SitemapSpider):      name = "example"      sitemap_urls = ["http://www.people.com.cn/robots.txt"]      queue_conf: QueueConfigQueueConfig = QueueConfig(          name="example", durable=True, arguments={"x-queue-mode": "lazy", "x-max-priority": 255}      )      redis_bloom_conf: RedisBloomConfigRedisBloomConfig = RedisBloomConfig(key="example:dupefilter")      def parse(self, response):          self.logger.info(f"parse response, url: {response.url}")

Step 2:

只需要修改配置文件 settings.py 下的SCHEDULER, DUPEFILTER_CLASS 并且添加 RabbitMQ和 Redis 的相关配置,你就可以马上获得一个分布式爬虫,Scrapy-Distributed 会帮你初始化一个默认配置的 RabbitMQ 队列和一个默认配置的 RedisBloom 布隆过滤器。

# 同时集成 RabbitMQ 和 RedisBloom 的 Scheduler  # 如果仅使用 RabbitMQ 的 Scheduler,这里可以填 scrapy_distributed.schedulers.amqp.RabbitScheduler  SCHEDULER = "scrapy_distributed.schedulers.DistributedScheduler"  SCHEDULER_QUEUE_CLASS = "scrapy_distributed.queues.amqp.RabbitQueue"  RABBITMQ_CONNECTION_PARAMETERS = "amqp://guest:guest@localhost:5672/example/?heartbeat=0"  DUPEFILTER_CLASS = "scrapy_distributed.dupefilters.redis_bloom.RedisBloomDupeFilter"  BLOOM_DUPEFILTER_REDIS_URL = "redis://:@localhost:6379/0"  BLOOM_DUPEFILTER_REDIS_HOST = "localhost"  BLOOM_DUPEFILTER_REDIS_PORT = 6379  # Redis Bloom 的客户端配置,复制即可  REDIS_BLOOM_PARAMS = {      "redis_cls": "redisbloom.client.Client"  }  # 布隆过滤器误判率配置,不写配置的情况下默认为 0.001  BLOOM_DUPEFILTER_ERROR_RATE = 0.001  # 布隆过滤器容量配置,不写配置的情况下默认为 100_0000  BLOOM_DUPEFILTER_CAPACITY = 100_0000

你也可以给你的 Spider 类,增加两个类属性,来初始化你的 RabbitMQ 队列或 RedisBloom 布隆过滤器:

class MySpider(SitemapSpider):      ......      # 通过 arguments 参数,可以配置更多参数,这里示例配置了 lazy 模式和优先级最大值      queue_conf: QueueConfigQueueConfig = QueueConfig(          name="example", durable=True, arguments={"x-queue-mode": "lazy", "x-max-priority": 255}      )      # 通过 key,error_rate,capacity 分别配置布隆过滤器的redis key,误判率,和容量      redis_bloom_conf: RedisBloomConfigRedisBloomConfig = RedisBloomConfig(key="example:dupefilter", error_rate=0.001, capacity=100_0000)      ......

Step 3:

scrapy crawl example

检查一下你的 RabbitMQ 队列 和 RedisBloom 过滤器,是不是已经正常运行了?

可以看到,Scrapy-Distributed 的加持下,我们只需要修改配置文件,就可以将普通爬虫修改成支持 RabbitMQ 队列 和 RedisBloom 布隆过滤器的分布式爬虫。在拥有 RabbitMQ 和 RedisBloom 环境的情况下,修改配置的时间也就一分钟。

关于Scrapy-Distributed

目前 Scrapy-Distributed 主要参考了Scrapy-Redis 和 scrapy-rabbitmq 这两个库。

如果你有过 Scrapy 的相关经验,可能会知道 Scrapy-Redis 这个库,可以很快速的做分布式爬虫,如果你尝试过使用 RabbitMQ 作为爬虫的任务队列,你可能还见到过 scrapy-rabbitmq 这个项目。诚然 Scrapy-Redis 已经很方便了,scrapy-rabbitmq 也能实现 RabbitMQ 作为任务队列,但是他们存在一些缺陷,我这里简单提出几个问题。

于是,Scrapy-Distributed 框架就在这个时候诞生了,在非侵入式设计下,你只需要通过修改 settings.py 下的配置,框架就可以根据默认配置将你的爬虫分布式化。

为了解决Scrapy-Redis 和 scrapy-rabbitmq 存在的一些痛点,Scrapy-Distributed 做了下面几件事:

“如何快速理解Scrapy分布式爬虫、队列和布隆过滤器”的内容就介绍到这里了,感谢大家的阅读。如果想了解更多行业相关的知识可以关注亿速云网站,小编将为大家输出更多高质量的实用文章!

推荐阅读:
  1. docker快速搭建分布式爬虫pyspider
  2. 如何理解queue队列

免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。

scrapy python

上一篇:有哪些Vue项目技巧

下一篇:Python爬虫遇到验证码的处理方式有哪些

相关阅读

您好,登录后才能下订单哦!

密码登录
登录注册
其他方式登录
点击 登录注册 即表示同意《亿速云用户服务条款》