美文网首页
Scrapy_Redis分布式爬虫

Scrapy_Redis分布式爬虫

作者: 暴走的金坤酸奶味 | 来源:发表于2019-01-07 23:25 被阅读0次

    为甚要学习scrapy_redis??

    Scrapy_redis在scrapy的基础上实现了更多,更强大的功能,具体体现在:reqeust去重,爬虫持久化,和轻松实现分布式

    Scrapy-redis提供了下面四种组件(components):(四种组件意味着这四个模块都要做相应的修改)

    • Scheduler (调度器)
    • Duplication Filter (去重)
    • Item Pipeline (引擎)
    • Base Spider
    1

    Scheduler:

    Scrapy改造了python本来的collection.deque(双向队列)形成了自己的Scrapy queue(https://github.com/scrapy/queuelib/blob/master/queuelib/queue.py)),
    但是Scrapy多个spider不能共享待爬取队列Scrapy queue, 即Scrapy本身不支持爬

    虫分布式,scrapy-redis 的解决是把这个Scrapy queue换成redis数据库(也是指redis队列),从同一个redis-server存放要爬取的request,便能让多个spider去
    同一个数据库里读取。

    Scrapy中跟“待爬队列”直接相关的就是调度器Scheduler,它负责对新的request进行入列操作(加入Scrapy queue),取出下一个要爬取的request(从Scrapy queue中取出)等操作。它把待爬队列按照优先级建立了一个字典结构,比如:

     {
            优先级0 : 队列0
            优先级1 : 队列1
            优先级2 : 队列2
        }
    
    
    

    然后根据request中的优先级,来决定该入哪个队列,出列时则按优先级较小的优先出列。为了管理这个比较高级的队列字典,Scheduler需要提供一系列的方法。但是原来的Scheduler已经无法使用,所以使用Scrapy-redis的scheduler组件。

    Duplication Filter

    Scrapy中用集合实现这个request去重功能,Scrapy中把已经发送的request指纹放入到一个集合中,把下一个request的指纹拿到集合中比对,如果该指纹存在于集合中,说明这个request发送过了,如果没有则继续操作。这个核心的判重功能是这样实现的:

     def request_seen(self, request):
            # 把请求转化为指纹  
            fp = self.request_fingerprint(request)
    
            # 这就是判重的核心操作  ,self.fingerprints就是指纹集合
            if fp in self.fingerprints:
                return True  #直接返回
            self.fingerprints.add(fp) #如果不在,就添加进去指纹集合
            if self.file:
                self.file.write(fp + os.linesep)
    

    在scrapy-redis中去重是由Duplication Filter组件来实现的,它通过redis的set 不重复的特性,巧妙的实现了Duplication Filter去重。scrapy-redis调度器从引擎接受request,将request的指纹存⼊redis的set检查是否重复,并将不重复的request push写⼊redis的 request queue。

    引擎请求request(Spider发出的)时,调度器从redis的request queue队列⾥里根据优先级pop 出⼀个request 返回给引擎,引擎将此request发给spider处理

    Item Pipeline:

    引擎将(Spider返回的)爬取到的Item给Item Pipeline,scrapy-redis 的Item Pipeline将爬取到的 Item 存⼊redis的 items queue。

    修改过Item Pipeline可以很方便的根据 key 从 items queue 提取item,从⽽实现 items processes集群

    Base Spider

    不在使用scrapy原有的Spider类,重写的RedisSpider继承了Spider和RedisMixin这两个类,RedisMixin是用来从redis读取url的类。

    当我们生成一个Spider继承RedisSpider时,调用setup_redis函数,这个函数会去连接redis数据库,然后会设置signals(信号):

    一个是当spider空闲时候的signal,会调用spider_idle函数,这个函数调用schedule_next_request函数,保证spider是一直活着的状态,并且抛出DontCloseSpider异常。

    一个是当抓到一个item时的signal,会调用item_scraped函数,这个函数会调用schedule_next_request函数,获取下一个request。


    源码自带项目说明:

    git clone https://github.com/rolando/scrapy-redis.git
    启动后redis数据库会多这3个

    "xcfCrawlSpider:requests":存储的是请求的request对象
    "xcfCrawlSpider:items":存储的爬虫端获取的items数据
    "xcfCrawlSpider:dupefilter":存储的指纹(为了实现去重)
    127.0.0.1:6379> type xcfCrawlSpider:requests
    zset
    127.0.0.1:6379> type xcfCrawlSpider:items
    list
    127.0.0.1:6379> type xcfCrawlSpider:dupefilter
    set
    
    
    **一、dmoz (class DmozSpider(CrawlSpider))**
    
    注意:这里只是用到Redis的去重和保存功能,并没有实现分布式
    
    这个爬虫继承的是CrawlSpider,它是用来说明Redis的持续性,当我们第一次运行dmoz爬虫,然后Ctrl + C停掉之后,再运行dmoz爬虫,之前的爬取记录是保留在Redis里的。
    
    
    **(第一中情况:只设置settings.py文件,并没有实现分布式,知识使用了sctapy_redis的数据存储和去重功能)**
    
    分析起来,其实这就是一个 scrapy-redis 版 CrawlSpider 类,需要设置Rule规则,以及callback不能写parse()方法。 执行方式:
    ```python
    scrapy crawl dmoz
    from scrapy.linkextractors import LinkExtractor
    from scrapy.spiders import CrawlSpider, Rule
    
    
    class DmozSpider(CrawlSpider):
        """Follow categories and extract links."""
        name = 'dmoz'
        allowed_domains = ['dmoz.org']
        start_urls = ['http://www.dmoz.org/']
      
       #定义了一个url的提取规则,将满足条件的交给callback函数处理
        rules = [
            Rule(LinkExtractor(
                restrict_css=('.top-cat', '.sub-cat', '.cat-item')
            ), callback='parse_directory', follow=True),
        ]
    
        def parse_directory(self, response):
            for div in response.css('.title-and-desc'):
              #这里将获取到的内容交给引擎
                yield {
                    'name': div.css('.site-title::text').extract_first(),
                    'description': div.css('.site-descr::text').extract_first().strip(),
                    'link': div.css('a::attr(href)').extract_first(),
                }
    
    
    

    二、mycrawler_redis (class MyCrawler(RedisCrawlSpider))

    这个RedisCrawlSpider类爬虫继承了RedisCrawlSpider,能够支持分布式的抓取。因为采用的是crawlSpider,所以需要遵守Rule规则,以及callback不能写parse()方法。

    同样也不再有start_urls了,取而代之的是redis_key,scrapy-redis将key从Redis里pop出来,成为请求的url地

    
    from scrapy.spiders import Rule
    from scrapy.linkextractors import LinkExtractor
    
    from scrapy_redis.spiders import RedisCrawlSpider
    
    
    #继承制:RedisCrawlSpider
    class MyCrawler(RedisCrawlSpider):
        """Spider that reads urls from redis queue (myspider:start_urls)."""
        name = 'mycrawler_redis'
        allowed_domains = ['dmoz.org']
        #缺少了start_url,多了redis_key:根据redis_key从redis
        #数据库中获取任务
        redis_key = 'mycrawler:start_urls'
    
        rules = (
            # follow all links
            Rule(LinkExtractor(), callback='parse_page', follow=True),
        )
    
        #动态获取要爬取的域
        # def __init__(self, *args, **kwargs):
        #     # Dynamically define the allowed domains list.
        #     domain = kwargs.pop('domain', '')
        #     self.allowed_domains = filter(None, domain.split(','))
        #     super(MyCrawler, self).__init__(*args, **kwargs)
    
        def parse_page(self, response):
            return {
                'name': response.css('title::text').extract_first(),
                'url': response.url,
            }
    
    

    启动爬虫:scrapy crawl 爬虫名称

    现象:爬虫处于等待状态
    
    需要设置起始任务:
    lpush mycrawler:start_urls 目标url
    

    三、myspider_redis (class MySpider(RedisSpider))

    这个爬虫继承了RedisSpider, 它能够支持分布式的抓取,采用的是basic spider,需要写parse函数。 其次就是不再有start_urls了,取而代之的是redis_key,scrapy-redis将key从Redis里pop出来,成为请求的url地址。

    from scrapy_redis.spiders import RedisSpider
    
    
    class MySpider(RedisSpider):
        """Spider that reads urls from redis queue (myspider:start_urls)."""
        name = 'myspider_redis'
        #手动设置允许爬取的域
        allowed_domains = ['设置允许爬取的域']
        # 注意redis-key的格式:
        redis_key = 'myspider:start_urls'
    
        # 可选:等效于allowd_domains(),__init__方法按规定格式写,使用时只需要修改super()里的类名参数即可,一般不用
        def __init__(self, *args, **kwargs):
            # Dynamically define the allowed domains list.
            domain = kwargs.pop('domain', '')
            self.allowed_domains = filter(None, domain.split(','))
    
            # 修改这里的类名为当前类名
            super(MySpider, self).__init__(*args, **kwargs)
    
        def parse(self, response):
            return {
                'name': response.css('title::text').extract_first(),
                'url': response.url,
            }
    

    启动方法同上

    总结:

    1 如果只是用到Redis的去重和保存功能,就选第一种; 2 如果要写分布式,则根据情况,选择第二种、第三种; 3 通常情况下,会选择用第二种方式编写深度聚焦爬虫。

    相关文章

      网友评论

          本文标题:Scrapy_Redis分布式爬虫

          本文链接:https://www.haomeiwen.com/subject/fgdmrqtx.html