目录:
multiprocessing模块
Pool类
apply
apply_async
map
close
terminate
join
进程实例
multiprocessing模块
如果你打算编写多进程的服务程序,Unix/Linux无疑是正确的选择。由于Windows没有fork调用,难道在Windows上无法用Python编写多进程的程序?由于Python是跨平台的,自然也应该提供一个跨平台的多进程支持。multiprocessing模块就是跨平台版本的多进程模块。multiprocessing模块提供了一个Process类来代表一个进程对象,这个模块表示像线程一样管理进程,这个是multiprocessing的核心,它与threading很相似,对多核CPU的利用率会比threading好的多。
看一下Process类的构造方法:
__init__(self, group=None, target=None, name=None, args=(), kwargs={})
参数说明:
group:进程所属组。基本不用
target:表示调用对象。
args:表示调用对象的位置参数元组。
name:别名
kwargs:表示调用对象的字典。
下面看一个简单的例子
1#coding=utf-8 2import multiprocessing 3 4def do(n) : 5#获取当前线程的名字 6name = multiprocessing.current_process().name 7print(name,'starting') 8print("worker ", n) 9return1011if__name__=='__main__' :12numList = []13foriinxrange(5) :14p = multiprocessing.Process(target=do, args=(i,))15 numList.append(p)16 p.start()17 p.join()18print("Process end.")
运行结果
Process-1 starting
worker 0
Process end.
Process-2 starting
worker 1Process end.
Process-3 starting
worker 2Process end.
Process-4 starting
worker 3Process end.
Process-5 starting
worker 4Process end.
创建子进程时,只需要传入一个执行函数和函数的参数,创建一个Process实例,并用其start()方法启动,这样创建进程比fork()还要简单。 join()方法表示等待子进程结束以后再继续往下运行,通常用于进程间的同步。
注意:
在Windows上要想使用进程模块,就必须把有关进程的代码写在当前.py文件的if __name__ == ‘__main__’ :语句的下面,才能正常使用Windows下的进程模块。Unix/Linux下则不需要。
Pool类
Pool类可以提供指定数量的进程供用户调用,当有新的请求提交到Pool中时,如果池还没有满,就会创建一个新的进程来执行请求。如果池满,请求就会告知先等待,直到池中有进程结束,才会创建新的进程来执行这些请求。
下面介绍一下multiprocessing 模块下的Pool类下的几个方法:
1.apply()
函数原型:apply(func[, args=()[, kwds={}]])
该函数用于传递不定参数,同python中的apply函数一致,主进程会被阻塞直到函数执行结束(不建议使用,并且3.x以后不在出现)。
2.apply_async
函数原型:apply_async(func[, args=()[, kwds={}[, callback=None]]])
与apply用法一致,但它是非阻塞的且支持结果返回后进行回调。
3.map()
函数原型:map(func, iterable[, chunksize=None])
Pool类中的map方法,与内置的map函数用法行为基本一致,它会使进程阻塞直到结果返回。
注意:虽然第二个参数是一个迭代器,但在实际使用中,必须在整个队列都就绪后,程序才会运行子进程。
4.map_async()
函数原型:map_async(func, iterable[, chunksize[, callback]])
与map用法一致,但是它是非阻塞的。其有关事项见apply_async。
5.close()
关闭进程池(pool),使其不在接受新的任务。
6.terminal()
结束工作进程,不在处理未处理的任务。
7.join()
主进程阻塞等待子进程的退出, join方法要在close或terminate之后使用。
下面我们看一个简单的multiprocessing.Pool类的实例:
1# -*- coding: utf-8 -*- 2import time 3frommultiprocessingimport Pool 4def run(fn): 5#fn: 函数参数是数据列表的一个元素 6time.sleep(1) 7print(fn*fn) 8 9if__name__=="__main__":10testFL = [1,2,3,4,5,6]11print('shunxu:')#顺序执行(也就是串行执行,单进程)12s = time.time()13forfnin testFL:14 run(fn)15t1 = time.time()16print("顺序执行时间:", int(t1 - s))1718print('concurrent:')#创建多个进程,并行执行19pool = Pool(10)#创建拥有10个进程数量的进程池20#testFL:要处理的数据列表,run:处理testFL列表中数据的函数21 pool.map(run, testFL)22pool.close()#关闭进程池,不再接受新的进程23pool.join()#主进程阻塞等待子进程的退出24t2 = time.time()25print("并行执行时间:", int(t2-t1))
输出结果为:
shunxu:149162536顺序执行时间: 6concurrent:149162536并行执行时间: 1
上例是一个创建多个进程并发处理与顺序执行处理同一数据,所用时间的差别。从结果可以看出,并发执行的时间明显比顺序执行要快很多,但是进程是要耗资源的,所以平时工作中,进程数也不能开太大。 对Pool对象调用join()方法会等待所有子进程执行完毕,调用join()之前必须先调用close(),让其不再接受新的Process了。
更多有关进程介绍请参考官方文档:https://docs.python.org/2/library/multiprocessing.html