美文网首页Python学习之旅
爬虫 ----队列、多线程

爬虫 ----队列、多线程

作者: 依旧丶森 | 来源:发表于2018-02-27 13:50 被阅读13次

1.队列

使用Queue

  • 队列的重点:常规队列操作[LILO队列]
  • 队列的特点:线程安全的!
    import Queue

    # 1. 常规队列LILO队列【FIFO】
    q1 =Queue.Queue()
 
    #添加数据:吃
    q1.put('a')
    q1.put('b')

    #打印队列中的数据
    print q1.queue

    #取出队列中的数据:先进先出原则
    print q1.get()
    print q1.queue
    print q1.get()
    # 当队列里没有数据是,get获取不到到数据,会造成阻塞

    #2.栈队列——LIFO
    q2=Queue.LifoQueue()  #后进先出
  
    # 添加数据:吃
    q2.put("1")
    q2.put("2")
    #qsize是获取队列里的数据数量
    print q2.queue, q2.qsize()
    # 取出数据:吐
    print q2.get()  # :2
    print q2.get()  # :1

    #3.优先队列:添加的数据在提取时符合一定的优先规则
    q3=Queue.PriorityQueue()
    print q3


    #4.两端队列
    q4 =Queue.deque()
    #添加
    q4.append('a')# 从队列的右端添加数据:常规操作
    q4.append('b')
    q4.appendleft('1')# 从队列的左端添加数据
    q4.appendleft('2')
    #移除
    q4.pop()# 从右端获取并移除数据
    q4.popleft()#从左端获取并移除数据

2.多进程

  • 用Queue队列保存爬虫访问URL
  • threading 加锁模块,防止多个线程执行一个URL
    #引入需要的模块
    import requests
    import Queue   
    import threading   #有Lock和Rlock 两种

    # RLock() 当前线程频繁访问自己的数据:递归

    #多个线程访问共享数据
    lock=threading.Lock()

    # 一、模拟接到的需求,从n个url地址中获取数据

    # 创建一个保存url地址的LILO队列
    url_queue=Queue.Queue()

    #for循环添加所有需要的地址
    for page in range(0,5):
        url_queue.put('URL路由')

    #二、核心爬虫程序
    def spider(urlqueue):
        #开始爬取,当urlqueue队列中,还有未操作的url地址时,爬虫不能停
        while url_queue.qsize()>0:
              if lock.acquire():# 给可能出现数据访问冲突的代码块上锁
                  # 获取要爬取的url地址
                  url = urlqueue.get()
                  # 开始爬取数据的操作:后续完善爬虫采集数据的部分
                  print("剩余数据:%s;线程%s开始对%s进行爬取" % (urlqueue.qsize(), threading.currentThread().name, url))

                  # 爬取数据消耗时间
                  headers = {
                    "Referer": '********',
                    "User-agent": "******"
                  }
                  response = requests.get(url, headers=headers)

                  filename = url[-20:] + ".html"
                  with open(filename, "w") as f:
                      f.write(response.text.encode("utf-8"))

                  # 爬取结束
                  print("爬取完成:对%s目标地址爬取完成" % url)
                  # 当前执行完成会,解锁数据
                  lock.release()

    if __name__ == '__main__':
        #声明一个变量,保存多个线程
        threads=[]
        # 声明一个变量,控制启动多个线程
        threads_num=3
        #创建线程对象,并启动线程
        for ct in range(0,threads_num):
            #创建线程对象
            current_thread=threading.Thread(target=spider,args=(url_queue,))
            current_thread.start()

            #将线程保存在列表里
            threads.append(current_thread)
            #让线程join,就是让主线程等待所有子线程结束在结束
            for t in threads:
                t.join()
            print ('运行结束。。。')

相关文章

  • Thread

    队列 线程锁 多线程,线程池 队列 多线程爬虫示例 多线程 自定义线程 线程池

  • 爬虫基础05

    多线程爬虫 队列(from multiprocessing import Queue)UrlQueue = Que...

  • 爬虫 ----队列、多线程

    1.队列 使用Queue 队列的重点:常规队列操作[LILO队列] 队列的特点:线程安全的! 2.多进程 用Que...

  • 多线程爬虫

    多线程爬虫 Queue(队列对象) Queue是python中的标准库,可以直接import Queue引用; 队...

  • 多线程爬虫实战——爬取糗事百科

    多线程爬虫思路 我们之前写的爬虫网页,往往是等待一页内容爬取完毕后,再爬取另一页内容,效率很低,而用多线程和队列之...

  • 多线程爬虫

    1、多线程爬虫,可考虑放到线程池,把我们需要解析的URL 地址存入我们的队列中,然后去触发多线程进行操作、 代码如...

  • 分布式爬虫笔记(三)- 分布式存储

    分布式存储 分布式的存储包括网页文件的存储和爬虫队列的存储,在前面分享的分布式爬虫笔记(二)- 多线程&多进程爬虫...

  • 多线程

    多线程爬虫 1、创建一个任务队列 : 存放待爬取的url地址2、创建爬取线程发起请求,执行任务下载3、创建数据队列...

  • 队列和线程

    [iOS多线程中,队列和执行的排列组合结果分析] 多线程中的队列有:串行队列,并发队列,全局队列,主队列。 执行的...

  • 队列

    多线程队列 多进程队列

网友评论

    本文标题:爬虫 ----队列、多线程

    本文链接:https://www.haomeiwen.com/subject/eonpxftx.html