美文网首页
scrapy运行爬虫

scrapy运行爬虫

作者: David1119 | 来源:发表于2017-02-13 14:01 被阅读131次

爬虫运行脚本

点击链接加入群【python技术交流】:https://jq.qq.com/?_wv=1027&k=44cX7Ag
快来加入群【python技术交流】(群号214030345),发现精彩内容。

scrapy根目录创建run.py文件

from scrapy.crawler import CrawlerProcess
from scrapy.utils.project import get_project_settings
import sys

if __name__ == '__main__':
    if len(sys.argv) > 1:
        process = CrawlerProcess(get_project_settings())
        process.crawl(sys.argv[1])
        process.start()
    else:
        print 'ERROR:miss spider name!'

点击pycharm上edit configurations,设置参数
debug执行python run.py xxxspider即可
xxxspider为spider name
好处是可以随便调试,断点。运行多个爬虫,自己传各种参数。。。

相关文章

  • scrapy爬虫

    运行爬虫 scrapy crawl +<爬虫名字>Scrapy的安装:pip install scrapy创建s...

  • scrapy笔记

    1 scrapy的运行原理 参考:Learning Scrapy笔记(三)- Scrapy基础Scrapy爬虫入门...

  • 如何获取指定模块下所有的类

    前言 在使用 scrapy 时,运行爬虫仅需要通过 scrapy crawl 爬虫名 就可启动我们写好的爬虫,那么...

  • Scrapy的使用

    创建一个Scrapy项目 Scrapy的项目结构 spiders:编写爬虫的目录 爬虫的编写规则 运行你的爬虫

  • scrapy入门使用及pycharm远程调试

    一·scrapy的入门使用 scrapy的安装 创建scrapy项目 创建scrapy爬虫:在项目目录下执行 运行...

  • 创建Scrapy爬虫

    首先进入python虚拟目录 创建scrapy工程 生成爬虫 运行爬虫

  • 一. Scrapy爬虫基础

    最简单的Scrapy爬虫程序: 运行命令:scrapy crawl books -o books.csv结果截图:...

  • scrapyd和scrapyd-client使用教程

    scrapyd是一个用于部署和运行scrapy爬虫的程序,它允许你通过JSONAPI来部署爬虫项目和控制爬虫运行 ...

  • scrapy运行爬虫

    爬虫运行脚本 点击链接加入群【python技术交流】:https://jq.qq.com/?_wv=1027&k=...

  • 2020-07-19--scrapy框架2

    scrapy调试 通常,运行scrapy爬虫的方式是在命令行输入scrapy crawl ,调试的常用方式是在命令...

网友评论

      本文标题:scrapy运行爬虫

      本文链接:https://www.haomeiwen.com/subject/qdazittx.html