美文网首页
scrapyd的使用

scrapyd的使用

作者: 阿猫阿狗py | 来源:发表于2018-12-07 00:40 被阅读36次
  1. scrapy爬虫项目,服务器上安装
    pip install scrapyd
  2. 开发的程序所在的电脑
    pip install scrapyd-client

如果是部署、开发在同一台电脑上
pip install scrapyd scrapyd-client

  1. 在python环境中的Script新建文本文件scrapyd-deploy.bat
    文件内容:
@echo off
#找到python文件 执行文件命令
"F:\env\Scripts\python.exe" "F:\env\Scripts\scrapyd-deploy" %*
  1. 打开命令窗口,运行命令
    scrapyd-deploy
# 出现提示信息,则成功
Error: no Scrapy project found in this location

5.新建一个文件目录,存放项目。
进入到目录下,启动scrapyd服务器:scrapyd
6.在scrapy.cfg中更改数据。

# Automatically created by: scrapy startproject
#
# For more information about the [deploy] section see:
# https://scrapyd.readthedocs.io/en/latest/deploy.html

[settings]
default = haibao.settings

[deploy:haibao]
url = http://localhost:6800/
project = haibao

7.部署爬虫到服务器(cd到项目目录下,运行命令)
scrapyd-deploy 服务器项目名称 -p 本地项目名称

scrapyd-deploy haibao -p haibao
  1. 使用curl命令查看项目情况。如果失败安装下载工具包。
    http://curl.haxx.se/download.html
  2. 查看命令

远程启动爬虫项目
curl http://localhost:6800/scheduler.json-d project=myproject -d spider=myspider

远程停止/删除爬虫项目-工作计划job
curlhttp://localhost:6800/cancel.json -d project=<PROJECT_NAME> -d job=<JOB_ID>

查看服务器负载状态
curl http://localhost:6800/daemonstatus.json

查看服务器中所有的项目信息
curl http://localhost:6800/listprojects.json

查看某个特定项目的爬虫列表信息
curl http://localhost:6800/listspiders.json?project=myproject

查看指定项目的任务列表
curl http://localhost:6800/listjobs.json

删除某个项目在服务器上的某个版本curl http://localhost:6800/delversion.json -d project=myproject -d version=1543545055

删除项目在服务器上所有版本
curl http://localhost:6800/delproject.json -d project=myproject

2. gerapy分布式爬虫管理工具[开发爬虫程序的电脑上使用的]

安装:

pip install pymongo【依赖模块】

pip install gerapy

初始化:进入需要配置部署管理项目的文件夹

gerapy init

gerapy migrate

启动管理平台

gerapy runserver

打开浏览器:访问管理平台界面

http://localhost:8000

相关文章

  • Scrapyd部署爬虫干货

    使用Scrapyd部署爬虫 为什么要用Scrapyd? Scrapyd是scrapinghub官方提供的爬虫管理、...

  • 37.scrapyd部署scrapy项目

    scrapyd部署scrapy项目 学习目标 了解 scrapyd的使用流程 1. scrapyd的介绍 scra...

  • scrapy部署

    1、安装使用到的相关库 scrapyd pip3 install scrapyd scrapyd-client p...

  • 爬虫----服务器上的部署

    step1安装使用到的相关库 scrapyd pip3 install scrapyd scrapyd:是运行sc...

  • scrapyd使用备忘

    写在前面: 强调一下,使用scrapyd并不是就装一个scrapyd就完事了,为了更方便的使用scrapyd,还需...

  • scrapyd部署scrapy

    部署scrapy可以使用scrapyd,通过在客户端安装scrapyd-client,服务端安装scrapyd,可...

  • scrapyd+supervisor在ubuntu部署scrap

    之前写windows下面使用scrapyd的时候挖了个坑说要写一篇linux使用scrapyd不是scrapy项目...

  • scrapyd 使用

    远程访问设置 查找配置文件 配置文件路径如下图: 编辑配置文件内容,由于默认bind_address = 127....

  • scrapyd的使用

    scrapy爬虫项目,服务器上安装pip install scrapyd 开发的程序所在的电脑pip instal...

  • Scrapyd发布爬虫的工具

    Scrapyd Scrapyd是部署和运行Scrapy.spider的应用程序。它使您能够使用JSON API部署...

网友评论

      本文标题:scrapyd的使用

      本文链接:https://www.haomeiwen.com/subject/dpdscqtx.html