美文网首页
[python] 多进程编程

[python] 多进程编程

作者: StormZhu | 来源:发表于2018-05-06 17:46 被阅读0次

引言

讲到进程,不得不先说下linuxfork()函数,一个进程调用fork()函数后,系统先给新的进程分配资源,例如存储数据和代码的空间。然后把原来的进程的所有值都复制到新的新进程中,只有少数值与原来的进程的值不同。相当于克隆了一个自己。

import os
import time
# 此代码只能运行于linux/unix
pid = os.fork() # 创建一个子进程
print("test")
if pid == 0:
    print("子进程 {}, 父进程是 {}".format(os.getpid(), os.getppid()))
else:
    print("我是父进程: {}".format(pid))
time.sleep(2)
# 执行结果
# test
# 我是父进程: 6428
# test
# 子进程
# 6428, 父进程是 6427

注意到,fork()后面的代码执行了两次,但行为不一样。如果fork()返回0,说明是子进程。而子进程会将父进程的数据原样拷贝一遍,所以和线程不一样,不能通过全局变量来通信。

由于GIL锁的存在,python的多线程一直被人诟病,在CPU密集型操作中,推荐多进程,在IO密集型操作中,推荐多线程。和多线程的threading模块一样,python为多进程也提供了multiprocessing多进程包。

multiprocessing模块

有了多线程的使用基础,多进程的API很好理解。

普通使用

import multiprocessing
import time
def get_html(n):
    time.sleep(n)
    print("sub_progress success")
    return n

if __name__ == "__main__": #注意,在windows下这句话必须加!!!
    progress = multiprocessing.Process(target=get_html, args=(2,))
    print(progress.pid)
    progress.start() # 启动子进程
    print(progress.pid) # 打印子进程的PID
    progress.join() # 等待子进程结束
    print("main progress end")
# 执行结果
# None
# 5444
# sub_progress success
# main progress end
  1. multiprocessing.Process()传入执行入口函数和参数。
  2. start()方法启动子进程。
  3. progress.pid属性可以获取子进程的ID号,在未启动前,未None,启动后,得到系统分配的ID号。
  4. join()方法等待子进程结束。

进程池

multiprocessing模块中提供Pool类来支持进程池编程。

import multiprocessing
import time
def get_html(n):
    time.sleep(n)
    print("sub_progress success")
    return n

if __name__ == "__main__": #注意,在windows下这句话必须加!!!
    pool = multiprocessing.Pool(multiprocessing.cpu_count())
    result = pool.apply_async(get_html, args=(3,))

    pool.close() # 在join前必须运行close()
    pool.join()
    print(result.get()) # 得到子进程的返回值
# 执行结果  
# sub_progress success
# 3
  1. 使用multiprocessing.Pool()来创建进程池,可以设置进程池的大小,默认为CPU的核心个数,一般进程也不会超过CPU的核心个数,超过了效率也不会高。
  2. apply_async方法传入执行入口函数和参数,传入之后,就进入了子进程等待队列中,等待执行。返回值是ApplyResult对象,存储子进程的结果。
  3. join()方法等待所有子进程的结束,调用前必须使用close()方法。
  4. ApplyResult对象的get()方法,获取子进程的返回值。

multiprocessing模块同样提供了类似于map的方法:

import multiprocessing
import time
def get_html(n):
    time.sleep(n)
    print("{}s sub_progress success".format(n))
    return n

if __name__ == "__main__": #注意,在windows下这句话必须加!!!
    pool = multiprocessing.Pool(multiprocessing.cpu_count())
    # for result in pool.imap_unordered(get_html, [1, 3, 2]):
    for result in pool.imap(get_html, [1, 3, 2]):
        print("{}s sleep success".format(result))
# 执行结果
# 1s sub_progress success
# 1s sleep success
# 2s sub_progress success
# 3s sub_progress success
# 3s sleep success
# 2s sleep success
  1. imap方法,结果输出顺序与传入的可迭代对象的顺序相同。
  2. imap_unordered方法,结果输出顺序与子进程结束的时间顺序相同。

进程池的更好实现

虽然multiprocessing模块中提供Pool类,但是使用进程池的时候,使用concurrent.futures模块中的ProcessPoolExecutor类更加方便。在介绍线程池的时候,介绍了ThreadPoolExecutor的使用,而ProcessPoolExecutor的接口实现和ThreadPoolExecutor完全一样,只用多创建多线程改完创建多进程即可。值得注意的是:在windows下进行多进程编程的时候,主程序一定要加if __name__ == "__main__":

总结

  • 在CPU密集型操作时,使用多进程可以加快速度。
  • 多进程API与多线程API基本相同,在使用线程池的时候,可以使用multiprocessing.Pool,也可以使用Future模块下的ProcessPoolExecutor,推荐后者。
  • 在windows下多进程编程要加if __name__ == "__main__":

参考

Python3高级编程和异步IO并发编程

相关文章

网友评论

      本文标题:[python] 多进程编程

      本文链接:https://www.haomeiwen.com/subject/olburftx.html