美文网首页林梓技术分享集
scrapinghub 部署scrapy爬虫

scrapinghub 部署scrapy爬虫

作者: 童蒙vlog | 来源:发表于2017-07-20 22:23 被阅读54次

    请首先注册scrapinghub,参见以下两篇文章:

    未读完以上两篇文章请勿往下看!

    如果安装了第三方库,请在scrapy根目录下,引入requirements.txt

    PyMySQL==0.7.11
    lxml==3.7.3
    pyOpenSSL==17.0.0
    

    如果你用的是python3版本,请对scrapinghub.yml做如下修改

    projects:
        default: your-project-id  # your-project-id为项目id
    stacks:
        default: scrapy:1.1-py3 # 这个注意,如果是python2.7 则写成scrapy:1.1
    requirements_file: requirements.txt  #第三方库时引用
    

    2.每次修改都需要重新部署到scrapinghub:

    shub deploy ProjectID
    

    相关文章

      网友评论

        本文标题:scrapinghub 部署scrapy爬虫

        本文链接:https://www.haomeiwen.com/subject/bkajkxtx.html