美文网首页
Python Scrapy 命令行工具

Python Scrapy 命令行工具

作者: SateZheng | 来源:发表于2016-12-15 18:27 被阅读1281次

    scrapy.cfg存放的目录认定是 项目的根目录

    scrapy 针对不同目的提供了多个命令。

    创建项目

    $ scrapy startproject my_pro
    
    

    有些Scrapy命令(比如crawl)要求必须在Scrapy项目中运行,有些则不用

    # 全局命令(不需要在项目中执行):
    startproject
    settings
    runspider
    shell
    fetch
    view
    version
    
    # 项目命令(必须在项目中执行):
    crawl
    check
    list
    edit
    parse
    genspider
    bench
    

    命令注解


    startproject

    • 语法:scrapy startproject <project_name>
    • 全局命令

    project_name 文件夹下创建一个名为 project_nameScrapy项目,如上边例子。


    genspider

    • 语法:scrapy genspider [-t template] <name> <domain>
    • 项目命令

    在当前项目中创建spider

    这仅仅是创建spider的一种快捷方法。该方法可以使用提前定义好的模板来生成spider。您也可以自己创建spider的源码文件。

    查看模板的方法如下:

    # 查看模板
    $ scrapy genspider -l
    Available templates:
      basic
      crawl
      csvfeed
      xmlfeed
    
    # 编辑模板
    $ scrapy genspider -d basic
    # -*- coding: utf-8 -*-
    import scrapy
    
    
    class $classname(scrapy.Spider):
        name = "$name"
        allowed_domains = ["$domain"]
        start_urls = (
            'http://www.$domain/',
        )
    
        def parse(self, response):
            pass
    

    根据模板来生成spider

    $ scrapy genspider -t basic sina sina.com
    
    $ scrapy genspider baidu baidu.com
    
    $ scrapy genspider zhihu zhihu.com
    
    $ scrapy list
    baidu
    sina
    zhihu
    
    $ ls my_pro/spiders/
    baidu.py  baidu.pyc  __init__.py  __init__.pyc  sina.py  sina.pyc  zhihu.py  zhihu.pyc
    

    crawl

    • 语法:scrapy crawl <spider>
    • 项目命令

    使用spider进行爬取

    # 例子
    $ scrapy crawl myspider
    

    check

    • 语法:scrapy check [-l] <spider>
    • 项目命令

    运行contract检查。


    list

    • 语法:scrapy list
    • 项目命令

    列出当前项目中所有可用的spider。每行输出一个spider

    # 例子
    $ scrapy list
    baidu
    sina
    zhihu
    

    edit

    • 语法:scrapy edit <spider>
    • 项目命令

    使用 EDITOR 中设定的编辑器编辑给定的spider

    # 例子
    $ scrapy edit baidu
    

    fetch

    • 语法:scrapy fetch <url>
    • 全局命令或项目命令,但结果不同

    使用Scrapy下载器(downloader)下载给定的URL

    该命令以spider下载页面的方式获取页面。例如,如果spiderUSER_AGENT 属性修改了 User Agent,该命令将会使用该属性。

    因此,您可以使用该命令来查看spider如何获取某个特定页面。

    该命令如果非项目中运行则会使用默认Scrapy downloader设定。

    # 例子:项目外边执行
    
    $ scrapy fetch --nolog --headers http://www.baidu.com
    > Accept-Language: en
    > Accept-Encoding: gzip,deflate
    > Accept: text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8
    > User-Agent: Scrapy/1.1.1 (+http://scrapy.org)
    >
    < Bdqid: 0xfbf98a3b0000db32
    ...
    ...
    ...
    
    $ scrapy fetch --nolog  http://www.baidu.com
    ...
    ...
    ...
    

    view

    • 语法:scrapy view <url>
    • 全局命令

    在浏览器中打开给定的URL,并以Scrapy spider获取到的形式展现。 有些时候spider获取到的页面和普通用户看到的并不相同。 因此该命令可以用来检查spider所获取到的页面,并确认这是您所期望的。

    $ scrapy view http://www.baidu.com
    

    shell

    • 语法:scrapy shell [url]
    • 全局命令

    以给定的URL(如果给出)或者空(没有给出URL)启动Scrapy shell

    $ scrapy shell
    $ scrapy shell http://www.baidu.com
    

    parse

    • 语法:scrapy parse <url> [options]
    • 全局命令

    获取给定的URL并使用相应的spider分析处理。如果您提供 --callback 选项,则使用spider的该方法处理,否则使用 parse


    settings

    • 语法:scrapy settings [options]
    • 全局命令

    获取Scrapy的设定

    在项目中运行时,该命令将会输出项目的设定值,否则输出Scrapy默认设定。

    $ scrapy settings --get BOT_NAME
    scrapybot
    $ scrapy settings --get DOWNLOAD_DELAY
    0
    

    runspider

    • 语法:scrapy runspider <spider_file.py>
    • 全局命令

    在未创建项目的情况下,运行一个编写在Python文件中的spider

    $ scrapy runspider first_mod.py
    

    bench

    • 语法:scrapy bench
    • 全局命令

    Scrapy提供了一个简单的性能测试工具。其创建了一个本地HTTP服务器,并以最大可能的速度进行爬取。 该测试性能工具目的是测试Scrapy在您的硬件上的效率,来获得一个基本的底线用于对比。 其使用了一个简单的spider,仅跟进链接,不做任何处理。

    $ scrapy bench
    

    相关文章

      网友评论

          本文标题:Python Scrapy 命令行工具

          本文链接:https://www.haomeiwen.com/subject/uhygmttx.html