前面的文章介绍了如何进行进程间的通信方式。结下来我们来讲一讲如何管理多个进程对资源的访问。
例如有时候我们多个进程对某一个文件进行写入的时候,如果我们一个进程还没有写完,就被CPU切换到另一个进程,势必会造成文件写入的顺序乱七八糟的。正确的情况是,在一个进程写完的时候,再让另一个进程进行写入。这时候,我们需要一个锁。
Lock
Lock有一点像我们日常生活中上厕所。厕所就是我们的资源,可以解决我们的需求。但是厕所是有限的,而且一次只能进去一个人。同时想上厕所的人很多,还没轮到的人全部在外边等待,轮到的人可以进去使用厕所,同时会锁上门,禁止其他人进入。上完厕所的人出来,打开厕所门,让后面的人进来。
翻译成计算机语言就是:
这个资源只允许一个Process访问,因此只有一个门,上一把锁。
from multiprocessing import Lock, Pool
import random
def write_file(lock):
with lock:
with open('write_demo.txt', 'a') as wf:
wf.write(str(random.random())+"\r")
if __name__ == '__main__':
lock = Lock()
pool = Pool()
for i in range(0, 10):
pool.apply_async(write_file(lock))
pool.close()
注意: lock其实跟文件的打开关闭一样,可以使用with语句。
Lock supports the context manager protocol and thus may be used in with statements.
解释一下这里为什么是with lock
:因为在if __name__ == '__main__':
中我们已经创建了Lock
对象。而with
后是需要跟一个对象,因此直接将lock
写在后面即可。那么with后的代码块都是被with所保护。
如果不用with语句的话,则需要手动写:
lock.acquire()
lock.release()
两者之间的代码才是被锁保护的。
RLock
RLock是Lock的递归版。啥意思呢?
我们知道lock.aquire()
是请求锁,当当前的锁事锁定状态的时候,则lock.aquire()
则会阻塞等待锁释放。
因此如果我们写了两个lock.aquire()
则会产生死锁。第二个lock.aquire()
会永远等待在那里。
使用RLock则不会有这种情况。RLock一个门支持多个锁,上多少把锁,就得释放多少次。
Semaphore
Semaphore有信号灯的意思。
Semaphore跟Lock类似,但是Semaphore可以允许指定最多多少个进程访问资源。
就像该资源有多个门,每个门一把锁。一个进程访问了资源,锁了门,还有其他门可以使用。但是如果所有门都被使用了,那么就得等待有进程出来释放锁才可以。
在编写Sempaphore示例代码的时候,遇到了一个比较奇怪的问题。
from multiprocessing import Semaphore, Pool
import os
import time
def worker_process(s):
print id(s)
with s:
print "Process (%s) run" % os.getpid()
time.sleep(1)
print "Process (%s) ended" % os.getpid()
if __name__ == '__main__':
semaphore = Semaphore(1)
print id(semaphore)
pool = Pool(4)
for i in range(0, 1000):
pool.apply_async(worker_process, args=(semaphore,))
pool.close()
pool.join()
print "Main Process ended"
如上所示的代码,传递semaphore时候,worker_process
并不会执行。
但是如果将semaphore
定义成一个全局变量,那么则可以在Linux或者unix下执行。(怀疑会在windows下出错)
from multiprocessing import Semaphore, Pool
import os
import time
semaphore = Semaphore(1)
def worker_process():
print id(semaphore)
with semaphore:
print "Process (%s) run" % os.getpid()
time.sleep(1)
print "Process (%s) ended" % os.getpid()
if __name__ == '__main__':
print id(semaphore)
pool = Pool(4)
for i in range(0, 1000):
pool.apply_async(worker_process)
pool.close()
pool.join()
print "Main Process ended"
以上代码可以正确执行。
暂时不知道问题出在哪里?有会的网友还请指点。
Event
还有Event。Event也是用于进程间的通信,那么它跟Queue、Pipe有什么区别呢?
其实Python多进程还有许多的内容。在后续的文章中介绍。
**粗体** _斜体_ [链接](http://example.com) `代码` - 列表 > 引用
。你还可以使用@
来通知其他用户。