美文网首页随笔-生活工作点滴
scrapy 定时执行的两种方法

scrapy 定时执行的两种方法

作者: 朝畫夕拾 | 来源:发表于2019-07-05 13:21 被阅读14次

window下是  dir  命令,  linux是  ls

提到定时任务调度的时候,相信很多人会想到芹菜celery,要么就写个脚本塞到crontab中。不过,一个小的定时脚本,要用celery的话太“重”了。所以,我找到了一个轻量级的定时任务调度的库:schedule。库的安装还是最简单的pip install schedule,使用起来也是很容易理解的。

from   scrapy    import   cmdline

import   schedule, time, os,  subprocess,  logging,  datetime

from   subprocess   import   run

from  multiprocessing   import   Process

schedule.every(10).minutes.do(job) 

schedule.every().hour.do(job) 

schedule.every().day.at("10:30").do(job) 

schedule.every(5).to(10).days.do(job) 

schedule.every().monday.do(job) 

schedule.every().wednesday.at("13:15").do(job) 

# -*- coding: utf-8 -*-

import   subprocess,  schedule,  time,  datetime,  logging

from   multiprocessing   import   Process

from  scrapy  import   cmdline

def   crawl_work():

        print("I'm working...")

       ## cmd = "scrapy crawl NanPing"

       ## subprocess.Popen(cmd)

      ## run(cmd, shell=True)

     ## pipe = subprocess.Popen(cmd, stdout=subprocess.PIPE).stdout

     ## print(pipe.read())

    print('-'*100)

    args = ["scrapy", "crawl", 'it']

    while True:

        start = time.time()

        p = Process(target=cmdline.execute, args=(args,))

        p.start()

        p.join()

        logging.debug("### use time: %s" % (time.time() - start))

if __name__=='__main__':

    print('*'*10+'开始执行定时爬虫'+'*'*10)

    schedule.every(1).minutes.do(crawl_work)

    print('当前时间为{}'.format(datetime.datetime.now().strftime('%Y-%m-%d %H:%M:%S')))

    print('*' * 10 + '定时爬虫开始运行' + '*' * 10)

    while True:

        schedule.run_pending()

        time.sleep(10)

第二种定时:

from multiprocessing import Process

from scrapy import cmdline

import time,logging

# 配置参数即可, 爬虫名称,运行频率

confs = [

    {

        "spider_name": "it",

        "frequency": 2,

    },

]

def start_spider(spider_name, frequency):

    args = ["scrapy", "crawl", spider_name]

    while True:

        start = time.time()

        p = Process(target=cmdline.execute, args=(args,))

        p.start()

        p.join()

        logging.debug("### use time: %s" % (time.time() - start))

        time.sleep(frequency)

if __name__ == '__main__':

    for conf in confs:

        process = Process(target=start_spider,args=(conf["spider_name"], conf["frequency"]))

        process.start()

        time.sleep(86400)

相关文章

  • scrapy 定时执行的两种方法

    window下是 dir 命令, linux是 ls 提到定时任务调度的时候,相信很多人会想到芹菜celery,要...

  • scrapy定时执行抓取任务

    在ubuntu环境下,使用scrapy定时执行抓取任务,由于scrapy本身没有提供定时执行的功能,所以采用了cr...

  • 定时执行任务的两种方法:

    定时执行任务的两种方法: 一、- (void)startLoop { NSDate *scheduledTime ...

  • 【day 4】Scrapy安装及基本使用

    Scrapy的安装 1. Windows下安装流程: 方法一: 命令行执行pip install scrapy 安...

  • 定时器

    定时器,指的是每隔一段时间就执行一次代码。在JavaScript中,对于定时器的实现有两种方法: setTimeo...

  • 09-定时器

    在JavaScript中有两种定时器, 一种是重复执行的定时器, 一种是只执行一次的定时器 1. 重复执行的定时器...

  • 前端开发常见问题总结

    1、定时器的使用 定时器:延时执行;JS:单线程执行 setTimeout("方法名或方法","延时") setT...

  • 用crontab定时执行scrapy任务

    crontab命令常见于Unix和类Unix的操作系统之中,用于设置周期性被执行的指令。下面是简单使用cronta...

  • 爬虫框架Scrapy之定时执行

    最简单的方法:直接使用Timer类 使用标准库的sched模块 可以根据需要选择使用。

  • 7.C# 三种Timer

    简介:定时器一般用作「固定时间间隔」执行某个「任务」。 两种情况: 「固定时间间隔」执行某个「不耗时」任务 例...

网友评论

    本文标题:scrapy 定时执行的两种方法

    本文链接:https://www.haomeiwen.com/subject/lknshctx.html