美文网首页
scrapy下爬虫的暂定与重启

scrapy下爬虫的暂定与重启

作者: 十分好 | 来源:发表于2018-06-02 22:39 被阅读0次

首先要有一个scrapy项目

在cmd上cd 进入项目

然后在项目目录下创建 记录文件:remain/001
(remain与spider同级)
然后输入:scrapy crawl zhihu -s JOBDIR=remain/001

回车运行就行了

按ctrl+c 暂停

继续运行只要再次输入:scrapy crawl zhihu -s JOBDIR=remain/001就行了

需要重新爬取就换个文件 002就行了

相关文章

网友评论

      本文标题:scrapy下爬虫的暂定与重启

      本文链接:https://www.haomeiwen.com/subject/nxddsftx.html