阅读本文大概需要4分钟
前几天把入门的文章汇总了一下(来来来,10篇精华文章|帮你快速恢复功力),不知道大家的功力恢复几层啦,前面写了60多篇入门文章,今年会慢慢的写一些Python进阶的文章!今天我们就从Python的并发开刀,大家都知道并发有几招,那这几招的性能如何呢,我们一起来实战PK一下!
要点:
-
手动线程池
-
concurrent.futures线程池
-
concurrent.futures进程池
-
gevent协程
1.实战爬取维基百科例子
平时我们有很多任务,尤其是比较耗时的大量任务要处理,一定会用到并发处理。毕竟串行太慢了,下面我们去爬一个维基百科的网站: 140_1.png我们来爬取红框里面的导航文本部分,这是一个非常简单的爬虫(关于爬虫的文章前面写的太多太多了,大家可以翻历史文章)
1).连接网页 140_2.png 2).爬取网页 140_3.png-函数设计的时候我们希望入参是一个元组(url,words),方便后面做并发处理
-网页非常简单,直接用requests取爬取,获取text
-用pyquery来解析网页,获取对国家的描述
-数据结构用字典对来存储
2.PK前做点准备工作
1).如果我们现在要爬取100个国家的信息,有几种办法呢:
最慢的串行爬取
自己手动构建一个线程池,把要爬取的100国家都扔到共享队列里面,让多个线程共享爬取
利用concurrent.futures标准库里的线程池来爬去
用多进程来爬取,虽然网页请求是CPU密集型的,用进程有点浪费,但是我们作为对比,是可以试一下的
用协程也叫微线程,是一种绿色线程,用来做高并发很爽
下面我们用上面的5种方法逐一运行,为了简单期间我们统一爬取5个国家,每种方法上面用装饰器@cost_time来计算一下,看看到底哪种方便比较简单,速度又最快~~
3.慢慢的串行处理
先来段最通俗的one by one的串行处理 140_5.png4.手动建多线程共享队列
利用queue有锁的功能,手动把数据塞进队列,然后多个线程共享爬取 140_7.png5.用标准库里面的线程池
与其动手造轮子,不如用无所不能的库,Python里面的库真的太多太多了!这也是Python为啥这么火爆的原因之一. 140_9.png发现用系统的线程池跟手动的几乎差不多,但是大家发现没有用轮子来处理,代码量非常小,而且很优美!(这是Python之美,能用轮子尽量用轮子,简洁高效).
有同学会问,有没有什么情况是一定要手动构建线程池,而不能用ThreadPoolExecutor,确实有这样的情况,大家思考一下,不明白的留言给我,偷偷告诉你.
6.用标准库的里进程池
既然上面有线程池,一定有进程池吧。是的,我们下面来看看杀鸡用牛刀的多进程处理,需要几秒呢: 140_11.png差不多也是5-6秒左右,多进程还是比较快的!但是我们这里是5个国家,如果500个你不可能开100个进程来处理呢,如果碰到非常巨大的并发量,又要节省系统资源,又要速度很快,怎么办呢,我们看最后一招
7.绝招,用协程来并发
用一下gevent这个库,功能强大使用简单,对协程的封装比较好。每当一个协程阻塞时,程序将自动调度,gevent帮我们处理了所有的底层细节 140_13.png哇协程果然很牛逼,只需要2.8秒左右,非常舒爽的感觉!但是这里因为requests库有个缺点,访问的时候是上一个访问结束,才能进行下一次访问!所以需要用gevent的猴子补丁.另外gevent虽然很好,但是它是大规模并发,如果发起10000个网络请求,估计很快会被封IP!
好我们来总结一下:
同步处理:17秒
异步手动建线程池:5.5秒
异步标准库线程池:5.2秒
异步标准库进程池:5.9秒
并发协程:2.8秒
很明显用Gevent最快,尤其是在大规模的几十万级别的并发处理效果非常明显.
线程池也是一个不错的选择,而且比较灵活,如果需要多个并发任务之间有交互的话,还是需要用线程池.
那进程池呢,我们上面考虑的都是IO 密集型task,如果我们碰到了CPO型的那就必须要多核多CPU运行才能加速。毕竟Python有一个烦人的GIL,
好今天的文章就写到这里,欢迎留言讨论
网友评论