关于臭名昭著的"GIL"严重阻碍了python多线程在实际工程上的应用,很多人理直气壮的说:“为什么要用python里面的多线程,它的速度比单线程还慢”。实际上,这句话对了一半,在计算密集型任务中,由于GIL的存在,即使你的电脑是多核超棒,但是任意一个时刻只能有一个线程在运行,WTF!但是很多人就会问了,既然python的多线程这么菜,那么它存在的意义是什么呢?为了增强本文的实用性,我不会纠结原理,而是介绍一种优雅的方法使用python里面的多线程。
我们会在主要做I/O操作的,最典型的就是网络连接的时候去使用python里面的多进程,我们可以创建几百个这样的线程,当有的线程在请求网络连接的时候,其他线程还可以继续处理数据。当然对于密集型计算,我还是会多选择多线程并发,这也不是我们这篇文章讲述的内容了。
说起并发,多线程之类的,很多人总是拿出什么生产者和消费者之类的问题,对此我想说,我完全不想知道这些,知道这些能有什么用呢,去参加操作系统考试吗?我们要优雅,不要污。
加入我们遇到了这样的一个任务,你有成百上千的url,你想把对应的网页下载下来,我相信研究过爬虫的同学肯定会遇到这个问题。我会说我曾经爬下了豆瓣妹子里面所有妹子的性感照片吗,需要的话可以联系我。为了使问题简单化,我们假设这些url已经被你知道了。
urls = [
'http://baidu.com.com',
'http://dataunion.org/21885.html',
'http://blog.jobbole.com/98480/',
'http://www.jianshu.com/users/c5fde99df3f2/latest_articles',
]
urls = urls*100 #生成400个url
Example 1:使用传统的单线程去下载这些网页
import time
import requests
def download(url):
try:
return requests.get(url,timeout=0.7) #timeout这个参数很有必要,加入你不慎去访问google等我国禁止的网站,那么程序在尝试0.7秒钟连接不上的时候,那么会放弃
except:
pass
start = time.time()
responses = [download(url) for url in urls]
html = [response.text for response in responses if hasattr(response,"text")]
end = time.time()
print ("Time: %f seconds" % (end - start))
Time: 169.916672 seconds
我们提取了400个网页里面的文字(其实只下载了将近300个,有100个网页被我们因为在指定时间内连接不上,我们放弃了),在单线程的情况下,差不多花了170秒,但是我们的实际工程中,随时可能面对的是几十万个网页信息的搜索,这个时间就很惊人了。
我们想要优雅的使用python多线程,我们需要借助tomorrow这个库,只需要一句话,就可以让你的代码完成速度的蜕变!
Example 1:使用多线程去下载这些网页
import time
import requests
from tomorrow import threads
@threads(100) #我们开一百个线程去搞定我们的下载任务
def download(url):
try:
return requests.get(url,timeout=0.7) #timeout这个参数很有必要,加入你不慎去访问google等我国禁止的网站,那么程序在尝试0.7秒钟连接不上的时候,那么会放弃
except:
pass
start = time.time()
responses = [download(url) for url in urls]
html = [response.text for response in responses if hasattr(response,"text")]
end = time.time()
print ("Time: %f seconds" % (end - start))
Time: 11.314254 seconds
对比结果简直震撼,后一个版本的代码只是比前一个单线程的代码多了一行代码,速度却带来了15倍的提升。
有木有兴趣来试一试呢?
网友评论