自己写python爬虫框架(一)

作者: 实在想不出昵称丶 | 来源:发表于2017-04-11 07:21 被阅读9次

    前言

    作为一个爬虫框架,与其他爬虫差异为:灵活扩展以及入门简单

    整体架构

    image
    • 调度器
      从请求管理器中取请求,然后调用下载器进行下载,调度解析器进行解析,对解析出的请求再次加入到请求管理器中;解析出的数据进行缓存,最后写入到文本中
      调度器为爬虫框架的核心,也是爬虫的入口,其成员变量为下载器、解析器、请求管理器、文件写入类、日志类,对于不同的爬虫需求,可以对以上接口有不同的实现。
      核心方法:
      从请求管理器中取用 request,采用模板设计模式,不可被子类重写
    def run(self, request):
        '''
        运行爬虫方法,从requestManager中取出可用的request,然后扔进下载器中进行下载,通过解析器对下载到的文档进行解析;
        需要传入一个或者一组request作为初始request进行抓取
    
            @param :: request : Request类型请求
            return : None
        '''
        self.__start_icon()
        self.__logger.info('\tStart crawl...')
        self.__requestManager.add_new_request(request)
        while self.__requestManager.has_new_request():
            request = self.__requestManager.get_new_request()
            print(request.__dict__)
            self.crawl(request)
        self.__logger.info('\tEnd crawl...')
    
    • 调度下载器与解析器,可被子类继承扩展,可扩展为多线程、多进程等
    def crawl(self, request):
        '''
        对request进行请求进行爬取并解析结果的运行单元,子类可对该方法重写进行多线程、多进程运行或异步抓取与解析;也可装饰该方法,进行多线程、多进程抓取。
        下载器对传入的request进行下载,解析器解析下载到的文档,并将解析出的request扔进requestManager中进行管理,以进行深度爬取;将解析出的data扔进writter中,将数据存储到磁盘上
    
            @param :: request : Request类型请求
            return None
        '''
        try:
            self.__logger.info('\t'+request.url)
            response = self.__downloader.download(request)
            if response.status_code == 200:
                requests, data = self.__parser.parse(response)
                self.__requestManager.add_new_requests(requests)
                self.__writter.write_buffer(data)
            else:
                self.__logger.warn(
                    'crawled data is None and response_status is ' + str(response.status_code))
        except Exception as e:
            self.__logger.exception('\tCrawling occurs error\n' + e.__repr__())
    
    
    • 下载器
      对传入的请求进行请求下载
      抽象方法:
    def download(self, request):
      '''
      对request进行请求下载,需要将请求到的response返回
    
          @param :: request : 请求对象
          return response
      '''
      raise NotImplementedError("未实现的父类方法: %s.%s" % (
          self.__class__.__name__, get__function_name()))
    
    
    • 解析器
      对传入的文本进行解析
      抽象方法:
    def parse(self, response):
        '''
        对response进行解析,需要将解析到的requests与data返回
    
            @param :: response : 响应对象
            return requests,data
        '''
        raise NotImplementedError("未实现的父类方法: %s.%s" % (
            self.__class__.__name__, get__function_name()))
    
    
    • 请求管理器
      管理所有的请求
      抽象方法:
    def add_new_requests(self, requests):
        '''
        模板方法,不需要子类重写
        添加requests序列到requestManager中进行管理
    
            @param :: requests : request对象列表
            return None
        '''
        for request in requests:
            self.add_new_request(request)
    
    def add_new_request(self, request):
        '''
        添加request对象到requestManager中进行管理
    
            @param :: request : request对象
            return None
        '''
        raise NotImplementedError("未实现的父类方法: %s.%s" % (
            self.__class__.__name__, get__function_name()))
    
    def has_new_request(self):
        '''
        判断requestManager中是否还有新的请求,返回布尔类型结果
    
            return Bool
        '''
        raise NotImplementedError("未实现的父类方法: %s.%s" % (
            self.__class__.__name__, get__function_name()))
    
    def get_new_request(self):
        '''
        从requestManager中取新的请求
    
            return request
        '''
        raise NotImplementedError("未实现的父类方法: %s.%s" % (
            self.__class__.__name__, get__function_name()))
    
    • 数据写入类
      将数据以特定格式写入到磁盘中
      抽象方法:
    def write(self, data):
         '''
         将数据data写入磁盘
    
             return None
         '''
         raise NotImplementedError("未实现的父类方法: %s.%s" % (
             self.__class__.__name__, get__function_name()))
    
     def write_buffer(self, data):
         '''
         缓存数据
    
             return None
         '''
         raise NotImplementedError("未实现的父类方法: %s.%s" % (
             self.__class__.__name__, get__function_name()))
    
     def flush_buffer(self):
         '''
         刷新缓存数据到磁盘上
    
             return None
         '''
         raise NotImplementedError("未实现的父类方法: %s.%s" % (
             self.__class__.__name__, get__function_name()))
    
    
    • 日志
      记录爬虫运行
      抽象方法:
    def debug(self, message):
        '''
        debug级别日志
        '''
        raise NotImplementedError("未实现的父类方法: %s.%s" % (
            self.__class__.__name__, get__function_name()))
    
    def info(self, message):
        '''
        info级别日志
        '''
        raise NotImplementedError("未实现的父类方法: %s.%s" % (
            self.__class__.__name__, get__function_name()))
    
    def warn(self, message):
        '''
        warn级别日志
        '''
        raise NotImplementedError("未实现的父类方法: %s.%s" % (
            self.__class__.__name__, get__function_name()))
    
    def exception(self, message):
        '''
        exception级别日志
        '''
        raise NotImplementedError("未实现的父类方法: %s.%s" % (
            self.__class__.__name__, get__function_name()))
    
    def error(self, message):
        '''
        error级别日志
        '''
        raise NotImplementedError("未实现的父类方法: %s.%s" % (
            self.__class__.__name__, get__function_name()))
    
    

    设计思想

    在 Abstract Factory 模式为将’抽象零件’组装为’抽象产品’,因此对于下载器、解析器、请求管理器、数据写入类、日志类仅是限定其抽象接口,在调度器中分别调用其每个零件的具体实现。

    调度器则参照了模板方法设计模式,将开始爬取方法(startcrawl)固定,对于调度器的多线程多进程扩展可继承该调度器,并重写调度爬取方法(crawl),提供多线程多进程爬取方法

    在爬虫整体框架设计中,主体未调度器、下载器、解析器、请求管理器、数据写入类、日志类,满足了基本爬虫的需求,在实际中爬虫进行爬取数据时,需要设置网络代理、设置不同的 cookie 身份、以及分布式爬取调度任务等,可对以上基本组件运用装饰者模式进行装饰,已达到扩展功能的需求

    小白文章,还请各位多多请教!

    相关文章

      网友评论

        本文标题:自己写python爬虫框架(一)

        本文链接:https://www.haomeiwen.com/subject/vscyattx.html