边读pyspider源码边学习边使用

作者: 沸腾的小茄克 | 来源:发表于2017-05-16 22:38 被阅读1146次

    用了一段时间的pyspider,一直没有研究源码。这两天抽空看了看,稍微拿几个点出来研究一下,如果读到哪里不对的地方,请及时指出我好纠正,本文我也会在今后实际使用过程中不断修正。

    本文会有错误!写本文的目的是我希望一边写文章,一边看源码。所以并不是看完源码之后的总结,请谨慎阅读。

    主要参考文章:

    1. pyspider架构设计
    2. pyspider架构

    导航栏:

    [TOC]

    目录结构

    1. database
    2. fetcher
    3. libs
    4. message_queue
    5. processor
    6. result
    7. scheduler
    8. webui
    

    结构分析

    PySpider主要由schedulerfetcherprocessor三大组件,webui提供前端页面,databaseresult提供持久层(数据层),lib常用工具类,message_queue消息传递层。

    三大数据库表

    projectdb: project项目管理,管理该项目的代码,状态,速率,上一次的更新时间等基础信息。
    taskdb: 组件中互相传递信息的json,封装了所有需要传递给各个组件进行使用和调用的数据,用户的整个爬虫都会被翻译成一系列的task,在组件中进行传递,最后获得结果。
    resultdb: 如果将数据存在本地数据库,则一般以resultdb存储

    总体结构

    pyspider 主要流程图pyspider 主要流程图
    • 各个组件间使用消息队列连接,除了scheduler是单点组件,fetcher和processor都可以是多实例分布式部署的。scheduler负责整体的调度控制
    • 任务由scheduler发起调度,fetcher抓取网页内容,processor执行预先编写(webui端)的python脚本,输出结果或产生新的提炼任务(发往scheduler),行程闭环
    • 每个脚本可以灵活使用各种python库对页面进行解析,使用框架API控制下一步抓取动作,通过设置回调控制解析动作

    三大组件介绍

    scheduler

    按照binux的介绍该组件有以下特点:

    • 任务优先级
    • 周期定时任务
    • 流量控制
    • 基于时间周期或前链标签(如更新时间)的重抓取调度

    那么从源码的角度来看可以归为下面7个方法,由scheduler.py中的Scheduler类的run()方法进入run_once(),可看到下面7个方法:

    def run_once(self):
       '''comsume queues and feed tasks to fetcher, once'''
    
       self._update_projects()
       self._check_task_done()
       self._check_request()
       while self._check_cronjob():
           pass
       self._check_select()
       self._check_delete()
       self._try_dump_cnt()
    

    这7个方法我还没完全过掉,先说我觉得正确的几个,希望之后您也可以帮我补充一下:

    • [x] _update_projects() : 从projectdb中检查project,是否有过期,需不需要重爬
    • [x] _check_task_done() : 从消息队列中取出消息(task)
    • [ ] _check_request() :
    • [ ] _check_cronjob() :
    • [ ] _check_select() :
    • [x] _check_delete() : 检查是否有需要删除的project,pyspider默认Status为STOP,且24小时之后自行删除
    • [ ] _try_dump_cnt() :

    fetcher

    按照binux的介绍该组件有以下特点:

    • dataurl支持,用于假抓取模拟传递
    • method, header, cookies, proxy, etag, last_modified, timeout等等抓取调度控制
    • 可以通过适配类似phantomjs的webkit引擎支持渲染

    fetcher中主要看 tornado_fetcher.py 和 phantomjs_fetcher.js 两个文件。

    tornado_fetcher.py

    • HTTP 请求

    看名字就知道该.py文件和tornado有所关系,点开可以看到tornado_fetcher.py继承了tornado的两个类:

    class MyCurlAsyncHTTPClient(CurlAsyncHTTPClient):
    
        def free_size(self):
            return len(self._free_list)
    
        def size(self):
            return len(self._curls) - self.free_size()
    
    class MySimpleAsyncHTTPClient(SimpleAsyncHTTPClient):
    
        def free_size(self):
            return self.max_clients - self.size()
    
        def size(self):
            return len(self.active)
    

    查看 tornado.httpclient - 异步HTTP客户端 文档后,很清楚的看到pyspider异步特性就是借助了tornado里的httpclient客户端。

    • class Fetcher(object):

    还从以Fetcher类中的run方法为入口看,发现会不断从inqueue队列中取task,进行fetch;
    fetch默认为异步,那么抓取的核心方法就是async_fetch(self, task, callback=None)
    fetch几点步骤和内容,还没弄懂的内容我没打勾:

    • [x] 从task中获得url
    • [x] callback默认为None
    • [x] fetch判断是否使用异步(默认全部使用)
    • [x] 判断url类型,其实就是判断是否使用phantomjs(ps:这边的startwith=data没懂)判断是否是js, splash。若都不是,则为普通的HTTP请求
    • [x] http_fetch可以看到就是处理cookie,重定向,robots.txt等一系列的方法
    • [ ] 获得result结果后,最后写了一句raise gen.Return(result) 引发的异常退出(这块没懂),只看到tornado.gen模块是一个基于python generator实现的异步编程接口

    phantomjs_fetcher.js

    先附上phantomjs WebServer部分的官方文档

    • [x] 使用WebServer方式,监听端口(默认为127.0.0.1:9999)
    • [x] 使用POST方式(拒绝GET)提交给Phantomjs监听的端口

    webPage是PhantomJS的核心模块,可以通过下面方式获得一个webPage模块的实例:

    var webPage = require('webpage')
    var page = webPage.create()
    

    再介绍phantomjs_fetcher.js中几个核心的方法:

    • [x] onLoadFinished : 监听页面是否加载完成
    • [x] onResourceRequested : 当页面去请求一个资源时,会触发onResourceRequested()方法的回调函数。回调函数接受两个参数,第一个参数requestData是这个HTTP请求的元数据对象,包括以下属性:
    * id: 所请求资源的id号,这个应该是phantomjs给标识的
    * method: 所使用的HTTP方法(GET/POST/PUT/DELETE等)
    * url: 所请求资源的URL
    * time: 包含请求该资源时间的一个Date对象。
    * headers: 该请求的http请求头中的信息数组。
    
    • [x] onResourceReceived : onResourceReceived属性用于指定一个回调函数,当网页收到所请求的资源时,就会执行该回调函数。回调函数只有一个参数,就是所请求资源的服务器发来的HTTP response的元数据对象,包括以下字段:
    * id: 所请求的资源编号,此编号phantomjs标识。
    * url: 所请求的资源的URL
    * time: 包含HTTP回应时间的Date对象
    * headers: 响应的HTTP头信息数组
    * bodySize: 解压缩后的收到的内容大小
    * contentType: 接到的内容种类
    * redirectURL: 重定向URL(如果有的话)
    * stage: 对于多数据块的HTTP回应,头一个数据块为start,最后一个数据块为end
    * status: HTTP状态码,成功时为200
    * statusText: HTTP状态信息,比如OK
    

    最后通过调用page.open发送请求给Phantomjs
    通过make_result方法返回response

    processor

    按照binux的介绍该组件有以下特点:

    • 内置的PyQuery,以jQuery解析页面
    • 在脚本中完全控制调度抓取的各项参数
    • 可以向后链传递信息
    • 异常捕获

    我还没具体看,简单的看了一眼先得出以下结论:

    • [x] 去取来自fetcher的task,调用task中process变量的callback函数(python脚本,存在projectdb中)
    • [x] 将合适的数据输出到result
    • [x] 有其他后续任务则重新放入消息队列并返回到scheduler中。

    其他组件

    webui

    前端页面是用Flask框架搭建的Web页面,具有以下功能:

    • web 的可视化任务监控
    • web 脚本编写,单步调试
    • 异常捕获、log捕获、print捕获等

    message_queues

    因为暂时就用到了Redis,所以介绍一下源码中用到的Redis方法,其他的可见Redi官方文档

    • [x] loop key : 移除并返回列表key的头元素
    • [x] rpush key value : 将一个或多个value值插入到表key的表尾
    • [x] llen key : 返回列表key的长度

    相关文章

      网友评论

      本文标题:边读pyspider源码边学习边使用

      本文链接:https://www.haomeiwen.com/subject/lrjrxxtx.html