视频1 视频21 视频41 视频61 视频文章1 视频文章21 视频文章41 视频文章61 推荐1 推荐3 推荐5 推荐7 推荐9 推荐11 推荐13 推荐15 推荐17 推荐19 推荐21 推荐23 推荐25 推荐27 推荐29 推荐31 推荐33 推荐35 推荐37 推荐39 推荐41 推荐43 推荐45 推荐47 推荐49 关键词1 关键词101 关键词201 关键词301 关键词401 关键词501 关键词601 关键词701 关键词801 关键词901 关键词1001 关键词1101 关键词1201 关键词1301 关键词1401 关键词1501 关键词1601 关键词1701 关键词1801 关键词1901 视频扩展1 视频扩展6 视频扩展11 视频扩展16 文章1 文章201 文章401 文章601 文章801 文章1001 资讯1 资讯501 资讯1001 资讯1501 标签1 标签501 标签1001 关键词1 关键词501 关键词1001 关键词1501 专题2001
Python并发之PoolExecutor的介绍(附示例)
2020-11-27 14:20:26 责编:小采
文档


本篇文章给大家带来的内容是关于Python并发之PoolExecutor的介绍(附示例),有一定的参考价值,有需要的朋友可以参考一下,希望对你有所帮助。

使用多线程(threading)和多进程(multiprocessing)完成常规的并发需求,在启动的时候 start、join 等步骤不能省,复杂的需要还要用 1-2 个队列。
随着需求越来越复杂,如果没有良好的设计和抽象这部分的功能层次,代码量越多调试的难度就越大。

对于需要并发执行、但是对实时性要求不高的任务,我们可以使用 concurrent.futures 包中的 PoolExecutor 类来实现。

这个包提供了两个执行器:线程池执行器 ThreadPoolExecutor 和进程池执行器 ProcessPoolExecutor,两个执行器提供同样的 API。

池的概念主要目的是为了重用:让线程或进程在生命周期内可以多次使用。它减少了创建创建线程和进程的开销,提高了程序性能。重用不是必须的规则,但它是程序员在应用中使用池的主要原因。

池,只有固定个数的线程/进程,通过 max_workers 指定。

任务通过 executor.submit 提交到 executor 的任务队列,返回一个 future 对象。

Future 是常见的一种并发设计模式。

一个Future对象代表了一些尚未就绪(完成)的结果,在「将来」的某个时间就绪了之后就可以获取到这个结果。

任务被调度到各个 workers 中执行。

但是要注意,一个任务一旦被执行,在执行完毕前,会一直占用该 worker!如果 workers 不够用,其他的任务会一直等待!因此 PoolExecutor 不适合实时任务。

import concurrent.futures
import time
from itertools import count

number_list = [1, 2, 3, 4, 5, 6, 7, 8, 9, 10]

def evaluate_item(x):
 for i in count(x): # count 是无限迭代器,会一直递增。
 print(f"{x} - {i}")
 time.sleep(0.01)


if __name__ == "__main__":
 # 进程池
 start_time_2 = time.time()

 # 使用 with 在离开此代码块时,自动调用 executor.shutdown(wait=true) 释放 executor 资源
 with concurrent.futures.ThreadPoolExecutor(max_workers=5) as executor:
 # 将 10 个任务提交给 executor,并收集 futures
 futures = [executor.submit(evaluate_item, item) for item in number_list]

 # as_completed 方法等待 futures 中的 future 完成
 # 一旦某个 future 完成,as_completed 就立即返回该 future
 # 这个方法,使每次返回的 future,总是最先完成的 future
 # 而不是先等待任务 1,再等待任务 2...
 for future in concurrent.futures.as_completed(futures):
 print(future.result())
 print ("Thread pool execution in " + str(time.time() - start_time_2), "seconds")

上面的代码中,item 为 1 2 3 4 5 的五个任务会一直占用所有的 workers,而 6 7 8 9 10 这五个任务会永远等待!!!

API 详细说明

concurrent.futures 包含三个部分的 API:

PoolExecutor:也就是两个执行器的 API

构造器:主要的参数是 max_workers,用于指定线程池大小(或者说 workers 个数)

submit(fn, *args, **kwargs):将任务函数 fn 提交到执行器,args 和 kwargs 就是 fn 需要的参数。

返回一个 future,用于获取结果

map(func, *iterables, timeout=None, chunksize=1):当任务是同一个,只有参数不同时,可以用这个方法代替 submit。iterables 的每个元素对应 func 的一组参数。

返回一个 futures 的迭代器

shutdown(wait=True):关闭执行器,一般都使用 with 管理器自动关闭。

Future:任务被提交给执行器后,会返回一个 future

future.result(timout=None):最常用的方法,返回任务的结果。如果任务尚未结束,这个方法会一直等待!

timeout 指定超时时间,为 None 时没有超时。

exception(timeout=None):给出任务抛出的异常。和 result() 一样,也会等待任务结束。

cancel():取消此任务

add_done_callback(fn):future 完成后,会执行 fn(future)。

running():是否正在运行

done():future 是否已经结束了,boolean

...详见官方文档

模块带有的实用函数

concurrent.futures.as_completed(fs, timeout=None):等待 fs (futures iterable)中的 future 完成

一旦 fs 中的某 future 完成了,这个函数就立即返回该 future。

这个方法,使每次返回的 future,总是最先完成的 future。而不是先等待任务 1,再等待任务 2...

常通过 for future in as_completed(fs): 使用此函数。

concurrent.futures.wait(fs, timeout=None, return_when=ALL_COMPLETED):一直等待,直到 return_when 所指定的事发生,或者 timeout

return_when 有三个选项:ALL_COMPLETED(fs 中的 futures 全部完成),FIRST__COMPLETED(fs 中任意一个 future 完成)还有 FIRST_EXCEPTION(某任务抛出异常)

Future 设计模式

这里的 PoolExecutor 的特点,在于它使用了 Future 设计模式,使任务的执行,与结果的获取,变成一个异步的流程。

我们先通过 submit/map 将任务放入任务队列,这时任务就已经开始执行了!然后我们在需要的时候,通过 future 获取结果,或者直接 add_done_callback(fn)。

这里任务的执行是在新的 workers 中的,主进程/线程不会阻塞,因此主线程可以干其他的事。这种方式被称作异步编程。

画外

concurrent.futures 基于 multiprocessing.pool 实现,因此实际上它比直接使用 线程/进程 的 Pool 要慢一点。但是它提供了更方便简洁的 API。

下载本文
显示全文
专题