美文网首页
下载中间件

下载中间件

作者: 背对背吧 | 来源:发表于2019-01-07 23:21 被阅读0次

    scrapy下载中间件

    中间件

    是Scrapy里面的一个核心概念。使用中间件可以在爬虫的请求发起之前或者请求返回之后对数据进行定制化修改,从而开发出适应不同情况的爬虫

    下载器中间件

    Scrapy的官方文档中,对下载器中间件的解释如下。

    下载器中间件是介于Scrapy的request/response处理的钩子框架,是用于全局修改Scrapy request和response的一个轻量、底层的系统。

    表述就是:更换代理IP,更换Cookies,更换User-Agent,自动重试。

    开发代理中间件

    在爬虫开发中,更换代理IP是非常常见的情况,有时候每一次访问都需要随机选择一个代理IP来进行。

    中间件本身是一个Python的类,只要爬虫每次访问网站之前都先“经过”这个类,它就能给请求换新的代理IP,这样就能实现动态改变代理。

    在创建一个Scrapy工程以后,工程文件夹下会有一个middlewares.py文件

    Scrapy自动生成的这个文件名称为middlewares.py,名字后面的s表示复数,说明这个文件里面可以放很多个中间件。Scrapy自动创建的这个中间件是一个爬虫中间件

    在middlewares.py中添加一段代码:

    class ProxyMiddleware(object):
    
        def process_request(self, request, spider):
            proxy = random.choice(settings['PROXIES'])
            request.meta['proxy'] = proxy
    

    要修改请求的代理,就需要在请求的meta里面添加一个Key为proxy,Value为代理IP的项。

    由于用到了random和settings,所以需要在middlewares.py开头导入它们:

    import random
    from scrapy.conf import settings
    

    在下载器中间件里面有一个名为process_request()的方法,这个方法中的代码会在每次爬虫访问网页之前执行。

    打开settings.py,首先添加几个代理IP:

    PROXIES = ['https://114.217.243.25:8118',
              'https://125.37.175.233:8118',
              'http://1.85.116.218:8118']
    

    需要注意的是,代理IP是有类型的,需要先看清楚是HTTP型的代理IP还是HTTPS型的代理IP。如果用错了,就会导致无法访问。

    激活中间件
    中间件写好以后,需要去settings.py中启动。在settings.py中找到下面这一段被注释的语句:

    # Enable or disable downloader middlewares
    # See http://scrapy.readthedocs.org/en/latest/topics/downloader-middleware.html
    #DOWNLOADER_MIDDLEWARES = {
    #    'AdvanceSpider.middlewares.MyCustomDownloaderMiddleware': 543,
    #}
    

    解除注释并修改,从而引用ProxyMiddleware。修改为:

    DOWNLOADER_MIDDLEWARES = {
      'AdvanceSpider.middlewares.ProxyMiddleware': 543,
    }
    

    这其实就是一个字典,字典的Key就是用点分隔的中间件路径,后面的数字表示这种中间件的顺序。由于中间件是按顺序运行的,因此如果遇到后一个中间件依赖前一个中间件的情况,中间件的顺序就至关重要。数字越小的中间件越先执行

    代理中间件的可用代理列表不一定非要写在settings.py里面,也可以将它们写到数据库或者Redis中。一个可行的自动更换代理的爬虫系统,应该有如下的3个功能。

    有一个小爬虫ProxySpider去各大代理网站爬取免费代理并验证,将可以使用的代理IP保存到数据库中。
    在ProxyMiddlerware的process_request中,每次从数据库里面随机选择一条代理IP地址使用。
    周期性验证数据库中的无效代理,及时将其删除。
    由于免费代理极其容易失效,因此如果有一定开发预算的话,建议购买专业代理机构的代理服务,高速而稳定。

    开发Cookies中间件

    对于需要登录的网站,可以使用Cookies来保持登录状态。那么如果单独写一个小程序,用Selenium持续不断地用不同的账号登录网站,就可以得到很多不同的Cookies。由于Cookies本质上就是一段文本,所以可以把这段文本放在Redis里面。这样一来,当Scrapy爬虫请求网页时,可以从Redis中读取Cookies并给爬虫换上。这样爬虫就可以一直保持登录状态。

    https://www.cnblogs.com/xieqiankun/p/know_middleware_of_scrapy_3.htmlSelenium

    相关文章

      网友评论

          本文标题:下载中间件

          本文链接:https://www.haomeiwen.com/subject/gddmrqtx.html