Python中的多进程编程


=Start=

缘由:

之前的Python编程任务中一般都是单线程进行的,因为大多数属于CPU密集型,多线程或多进程对程序性能的提升不大;但最近有几个网络密集型的任务,单线程的版本明显太慢,不得已,开始学习Python的多进程编程。

正文:

参考解答:
1.创建进程池Pool

multiprocessing 是 Python 的多进程并行库,我使用进程池 multiprocessing.Pool 来自动管理进程任务。可以通过一下语句初始化 Pool:

multiprocessing.freeze_support() # Windows 平台要加上这句,避免 RuntimeError
pool = multiprocessing.Pool()

假设我们要并行执行的任务是以下函数:

def task(pid):
    # do something
    return result

然后在主函数调用:

results = []
for i in xrange(0, 4):
    result = pool.apply_async(task, args=(i,)) #这行i后面的逗号是不能省略的,否则不会执行task方法
    results.append(result)

上面的 pool.apply_async 采用异步方式调用 task,而 pool.apply 则是同步方式调用。同步方式意味着下一个 task 需要等待上一个 task 完成后才能开始运行,这显然不是我们想要的功能,所以采用异步方式连续地提交任务。在上面的语句中,我们提交了 4 个任务,假设我的 CPU 是 4 核,那么我的每个核运行一个任务。如果我提交多于 4 个任务,那么每个核就需要同时运行 2 个以上的任务,这会带来任务切换成本,降低了效率(Pool进程池可以提供指定数量的进程供用户调用,当有新的请求提交到Pool中时,如果进程池还没有满,那么就会创建一个新的进程用来执行该请求;但如果池中的进程数已经达到规定最大值,那么该请求就会等待,直到池中有进程结束,才会创建新的进程来处理它)。所以我们设置的并行任务数最好等于 CPU 核心数, CPU 核可以通过下面语句得到:

cpus = multiprocessing.cpu_count()

接下来我们使用 result.get() 来获取 task 的返回值:

for result in results:
    print(result.get())

在这里不免有人要疑问,为什么不直接在 for 循环中直接 result.get() 呢?这是因为pool.apply_async之后的语句都是阻塞执行的,调用 result.get() 会等待上一个任务执行完之后才会分配下一个任务。事实上,获取返回值的过程最好放在进程池回收之后进行,避免阻塞后面的语句。

最后我们使用一下语句回收进程池:

pool.close() #调用join函数之前,先调用close函数,否则会出错。执行完close后不会有新的进程加入到Pool。
pool.join()  #调用join函数阻塞主进程等待所有子进程结束

最后附上完整的代码如下:

def task(pid):
    # do something
    return result
def main():
    multiprocessing.freeze_support()
    pool = multiprocessing.Pool()
    cpus = multiprocessing.cpu_count()
    results = []
    for i in xrange(0, cpus):
        result = pool.apply_async(task, args=(i,))
        results.append(result)
    pool.close()
    pool.join()
    for result in results:
        print(result.get())
2、使用进程池Pool,不需要关注结果
import multiprocessing
import time
#只是简单的print和sleep,并不需要返回什么结果/内容
def func(msg):
    for i in xrange(3):
        print msg
        time.sleep(1)
if __name__ == "__main__":
    pool = multiprocessing.Pool(processes=4)
    for i in xrange(10):
        msg = "hello %d" %(i)
        pool.apply_async(func, (msg, ))
    pool.close()
    pool.join()
    print "Sub-process(es) done."
3、使用进程池Pool,并需要关注结果(通过callback的方式)
import multiprocessing as mp
import time
def foo_pool(x):
    time.sleep(2)
    return x*x
result_list = []
def log_result(result):
    # This is called whenever foo_pool(i) returns a result.
    # result_list is modified only by the main process, not the pool workers.
    result_list.append(result)
def apply_async_with_callback():
    pool = mp.Pool()
    for i in range(10):
        pool.apply_async(foo_pool, args = (i, ), callback = log_result)
    pool.close()
    pool.join()
    print(result_list)
if __name__ == '__main__':
    apply_async_with_callback()
参考链接:

=END=


《“Python中的多进程编程”》 有 10 条评论

回复 hi 取消回复

您的电子邮箱地址不会被公开。 必填项已用*标注