美文网首页
scrapy部署多个爬虫项目

scrapy部署多个爬虫项目

作者: 醋溜八酱 | 来源:发表于2018-09-13 16:28 被阅读307次

首先上图:(因为工作原因,项目名需要打码)


由于各方面原因,需要将多个爬虫部署在一起,scrapy可以很好的解决这个问题。

接下来,开始无脑CV大法做实验:

1:创建一个scrapy程序:scraps startproject MySpides

2.疯狂创建项目: scrapy genspider BaiduBaidu.com 

scrapy genspider taobaotaobao.com

scrapy genspider jianshujianshu.com

… …

3.配置问题:

面对每一个爬虫,配置也不一样,这时候,该怎么办?没错! 看到custom_settings.py文件了吗?就是这个,我将每个爬虫单独的配置放在里面了.对于settings.py我将公共配置(例如延迟,U-A等等)放在里面。

4.启动配置:

在scrapy中提供了一个custom_settings 关键字,可以在爬虫项目中使用其指向该项目的配置.

custom_settings =custom_settings_for_baidu

将这句话添加作为项目的类函数就好

5.怎么可能还有5呢?结束了!躁起来!


喜欢的话就点个赞吧!

相关文章

网友评论

      本文标题:scrapy部署多个爬虫项目

      本文链接:https://www.haomeiwen.com/subject/nwowgftx.html