美文网首页
pyspider 分布式搭建

pyspider 分布式搭建

作者: 沸腾的小茄克 | 来源:发表于2018-06-11 00:03 被阅读0次

1. 背景

之前将pyspider部署在了一台机子上,这一台负责「数据存储」,「消息队列」,「任务调度」,「URL抓取」,「任务处理」。
现在发现有些性能瓶颈,就再开了一台机子做「URL抓取」及「任务处理」。

2. 机子

  • 爬虫主机:192.168.1.33
  • 附属机:192.168.1.71

3. 安装

  • docker
  • docker-compose
  • docker pull pyspider

4. 非爬虫部分配置

  • docker配置网络接口:docker network create --driver bridge pyspider

  • 数据库服务:我使用 MongoDB,由于之前就把服务齐起来了,就不进行虚拟化了(Docker),如果你是新起一个分布式爬虫,建议数据库服务也使用Docker。

    将下面的db连接改为你自己的:
    taskdb: mongodb+taskdb://192.168.1.33:27017/taskdb
    projectdb: mongodb+projectdb://192.168.1.33:27017/projectdb
    resultdb: mongodb+resultdb://192.168.1.33:27017/resultdb

  • 消息队列服务:redis。命令:docker run --network=pyspider --name redis -d -p 6379:6379 redis

    将下面的queue连接改为你自己的:
    message-queue: redis://192.168.1.33:6379/0

  • 注意: 我下面用的非原生pyspider,因为我需要依赖一些pyspider没有的库,请注意替换 (qbb6/pyspider -> binux/pyspider)

3. 主机配置

启动 pyspider schedule 模块

docker run --network=pyspider --name scheduler -d -p 23333:23333 --restart=always qbb6/pyspider\
--taskdb "mongodb+taskdb://192.168.1.33:27017/taskdb" \
--resultdb "mongodb+resultdb://192.168.1.33:27017/resultdb" \
--projectdb "mongodb+projectdb://192.168.1.33:27017/projectdb" \
--message-queue "redis://192.168.1.33:6379/0" \
scheduler --inqueue-limit 10000 --delete-time 3600

编写 docker-compose.yml

version: '2'
services:
  phantomjs:
    image: 'qbb6/pyspider:latest'
    command: phantomjs
    cpu_shares: 256
    environment:
      - 'EXCLUDE_PORTS=5000,23333,24444'
    expose:
      - '25555'
    mem_limit: 256m
    restart: always

  phantomjs-lb:
    image: 'dockercloud/haproxy:latest' # 使用haproxy使用负载均衡
    links:
      - phantomjs
    volumes:
      - /var/run/docker.sock:/var/run/docker.sock 
    restart: always

  fetcher:
    image: 'qbb6/pyspider:latest'
    command: '--message-queue "redis://192.168.1.33:6379/0" --phantomjs-proxy "phantomjs:80" fetcher --xmlrpc'
    cpu_shares: 256
    environment:
      - 'EXCLUDE_PORTS=5000,25555,23333'
    links:
      - 'phantomjs-lb:phantomjs'
    mem_limit: 256m
    restart: always

  fetcher-lb:
    image: 'dockercloud/haproxy:latest'
    links:
      - fetcher
    volumes:
      - /var/run/docker.sock:/var/run/docker.sock
    restart: always
    
  processor:
    image: 'qbb6/pyspider:latest'
    command: '--projectdb "mongodb+projectdb://192.168.1.33:27017/projectdb" --message-queue "redis://192.168.1.33:6379/0" processor'
    cpu_shares: 256
    mem_limit: 256m
    restart: always
 
  result-worker:
    image: 'qbb6/pyspider:latest'
    command: '--taskdb "mongodb+taskdb://192.168.1.33:27017/taskdb"  --projectdb "mongodb+projectdb://192.168.1.33:27017/projectdb" --resultdb "mongodb+resultdb://192.168.1.33:27017/resultdb" --message-queue "redis://192.168.1.33:6379/0" result_worker'
    cpu_shares: 256
    mem_limit: 256m
    restart: always
    
  webui:
    image: 'qbb6/pyspider:latest'
    command: '--taskdb "mongodb+taskdb://192.168.1.33:27017/taskdb"  --projectdb "mongodb+projectdb://192.168.1.33:27017/projectdb" --resultdb "mongodb+resultdb://192.168.1.33:27017/resultdb" --message-queue "redis://192.168.1.33:6379/0" webui  --scheduler-rpc "http://192.168.1.33:23333/" --fetcher-rpc "http://fetcher/"'
    cpu_shares: 256
    environment:
      - 'EXCLUDE_PORTS=24444,25555,23333'
    ports:
      - '5001:5000'
    links:
      - 'fetcher-lb:fetcher'
    mem_limit: 256m
    restart: always

networks:
  default:
    external:
      name: pyspider

构建镜像,创建、启动服务

前台启动:docker-compose up
后台启动:docker-compose up -d

配置 processorfetcherresult-worker 的进程数量

docker-compose scale phantomjs=2 processor=4 result-worker=2

4. 附属机配置

编写 docker-compose.yml

version: '2'
services:
  phantomjs:
    image: 'qbb6/pyspider:latest'
    command: phantomjs
    cpu_shares: 256
    environment:
      - 'EXCLUDE_PORTS=5000,23333,24444'
    expose:
      - '25555'
    mem_limit: 256m
    restart: always

  phantomjs-lb:
    image: 'dockercloud/haproxy:latest'
    links:
      - phantomjs
    volumes:
      - /var/run/docker.sock:/var/run/docker.sock
    restart: always

  fetcher:
    image: 'qbb6/pyspider:latest'
    command: '--message-queue "redis://192.168.1.33:6379/0" --phantomjs-proxy "phantomjs:80" fetcher --xmlrpc'
    cpu_shares: 256
    environment:
      - 'EXCLUDE_PORTS=5000,25555,23333'
    links:
      - 'phantomjs-lb:phantomjs'
    mem_limit: 256m
    restart: always

  fetcher-lb:
    image: 'dockercloud/haproxy:latest'
    links:
      - fetcher
    volumes:
      - /var/run/docker.sock:/var/run/docker.sock 
    restart: always

  processor:
    image: 'qbb6/pyspider:latest'
    command: '--projectdb "mongodb+projectdb://192.168.1.33:27017/projectdb" --message-queue "redis://192.168.1.33:6379/0" processor'
    cpu_shares: 256
    mem_limit: 256m
    restart: always

  result-worker:
    image: 'qbb6/pyspider:latest'
    command: '--taskdb "mongodb+taskdb://192.168.1.33:27017/taskdb"  --projectdb "mongodb+projectdb://192.168.1.33:27017/projectdb" --resultdb "mongodb+resultdb://192.168.1.33:27017/resultdb" --message-queue "redis://192.168.1.33:6379/0" result_worker'
    cpu_shares: 256
    mem_limit: 256m
    restart: always

networks:
  default:
    external:
      name: pyspider 

构建镜像,创建、启动服务

后台启动:docker-compose up -d
前台启动:docker-compose up

配置 processorfetcherresult-worker 的进程数量

docker-compose scale phantomjs=2 processor=4 result-worker=2

5. 参考

相关文章

  • pyspider 分布式搭建

    1. 背景 之前将pyspider部署在了一台机子上,这一台负责「数据存储」,「消息队列」,「任务调度」,「URL...

  • MAC 下搭建 PySpider

    最近在学习Python爬虫、想再自己本地MAC下搭建PySpider框架,经历了步步为坑的遭遇。。。 首先安装一下...

  • hadoop 集群

    标签:Hadoop 搭建分布式集群环境 MapReduce YARN HDFS 分布式环境搭建之环...

  • pyspider 启动时踩过的坑及如何出坑

    安装pyspider: $ pip3 install pyspider 启动pyspider: $ pyspide...

  • PySpider

    PySpider 国人编写的强大的网络爬虫系统并带有强大的WebUI。采用Python语言编写,分布式架构,支持多...

  • hadoop集群环境搭建之完全分布式集群环境搭建(二)

    hadoop集群环境搭建之完全分布式集群环境搭建(二) 我们在上一篇 hadoop集群环境搭建之伪分布式集群环境搭...

  • Hadoop2.8.3 分布式环境搭建

    Hadoop分布式环境搭建 说明:作为一款高可用的分布式文件系统,自然少不了分布式环境的搭建,前篇文章【伪分布式环...

  • pyspider

    第一步 下载pyspider pip3 install pyspider 然后在终端输入 pyspider 回车 ...

  • pyspider: swarm分布式爬虫

    目录 起点 搭建swarm 编写docker-compose.yml 部署服务 感想 1. 起点 学习爬虫有一段时...

  • Dubbo-从入门到深入

    一、搭建系统篇 Dubbo剖析-搭建一个简单的分布式系统(1) Dubbo剖析-搭建一个简单的分布式系统(2) D...

网友评论

      本文标题:pyspider 分布式搭建

      本文链接:https://www.haomeiwen.com/subject/kaxceftx.html