在Thread和Process中,应当优选Process,因为Process更稳定,
而且,Process可以分布到多台机器上,而Thread最多只能分布到同一台机器的多个CPU上。
Python的multiprocessing模块不但支持多进程,而且managers子模块还支持把多进程分布到多台机器上。
一个服务进程可以作为调度者,依靠网络通信,将任务分布到其他多个进程中。
由于managers模块封装很好,不必了解网络通信的细节,就可以很容易地编写分布式多进程程序。
举个例子:
如果我们已经有一个通过Queue通信的多进程程序在同一台机器上运行,
现在,由于处理任务的进程任务繁重,希望把发送任务的进程和处理任务的进程分布到两台机器上。
怎么用分布式进程实现?
原有的Queue可以继续使用,但是,通过managers模块把Queue通过网络暴露出去,
就可以让其他机器的进程访问Queue了。
我们先看服务进程,服务进程负责启动Queue,把Queue注册到网络上,然后往Queue里面写入任务:
# taskmanager.py
import queue
import random
from multiprocessing.managers import BaseManager
task_queue = queue.Queue()
result_queue = queue.Queue()
def return_task_queue():
global task_queue
return task_queue
def return_result_queue():
global result_queue
return result_queue
class QueueManager(BaseManager):
pass
if __name__=='__main__':
QueueManager.register('get_task_queue', callable=return_task_queue)
QueueManager.register('get_result_queue', callable=return_result_queue)
manager = QueueManager(address=('127.0.0.1', 5000), authkey=b'abc')
manager.start()
task = manager.get_task_queue()
result = manager.get_result_queue()
for i in range(10):
n = random.randint(0, 10000)
print('Put task %d' % n)
task.put(n)
print()
print('Try get results..')
for i in range(11):
try:
r = result.get(timeout=10)
print('result: %s' % r)
except queue.Empty:
print('result queue is empty.')
manager.shutdown()
print('master exit.')
当我们在一台机器上写多进程程序时,创建的Queue可以直接拿来用,
但是,在分布式多进程环境下,添加任务到Queue不可以直接对原始的task_queue进行操作,
否则就绕过了QueueManager的封装,必须通过manager.get_task_queue()获得的Queue接口添加。
然后,在另一台机器上启动任务进程(本机上启动也可以):
# taskworker.py
import time, queuefrom multiprocessing.managers import BaseManager
# 创建类似的QueueManager:
class QueueManager(BaseManager):
pass
# 由于这个QueueManager只从网络上获取Queue,所以注册时只提供名字:
QueueManager.register('get_task_queue')
QueueManager.register('get_result_queue')
# 连接到服务器,也就是运行taskmanager.py的机器:
server_addr = '127.0.0.1'
print('Connect to server %s...' % server_addr)
# 端口和验证码注意保持与taskmanager.py设置的完全一致:
m = QueueManager(address=(server_addr, 5000), authkey=b'abc')
# 从网络连接:
m.connect()
# 获取Queue的对象:
task = m.get_task_queue()
result = m.get_result_queue()
# 从task队列取任务,并把结果写入result队列:
for i in range(11):
try:
n = task.get(timeout=1)
print('run task %d * %d...' % (n, n))
r = '%d * %d = %d' % (n, n, n*n)
time.sleep(1)
result.put(r)
except queue.Empty:
print('task queue is empty.')
# 处理结束:
print('worker exit.')
任务进程要通过网络连接到服务进程,所以要指定服务进程的IP。
小结
Python的分布式进程接口简单,封装良好,适合把繁重任务分布到多台机器的环境下。
注意Queue的作用是用来传递任务和接收结果,每个任务的描述数据量要尽量小。
比如发送一个处理日志文件的任务,就不要发送几百兆的日志文件本身,
而是发送日志文件存放的完整路径,由Worker进程再去共享的磁盘上读取文件。
另:
既然新封装的类QueueManager,什么都没有改动,所以,
可以直接用父类BaseManager岂不直接。
# taskmanager2.py
import queue
import random
from multiprocessing.managers import BaseManager
task_queue = queue.Queue()
result_queue = queue.Queue()
def return_task_queue():
global task_queue
return task_queue
def return_result_queue():
global result_queue
return result_queue
if __name__=='__main__':
BaseManager.register('get_task_queue', callable=return_task_queue)
BaseManager.register('get_result_queue', callable=return_result_queue)
manager = BaseManager(address=('127.0.0.1', 5000), authkey=b'abc')
manager.start()
task = manager.get_task_queue()
result = manager.get_result_queue()
for i in range(10):
n = random.randint(0, 10000)
print('Put task %d' % n)
task.put(n)
print()
print('Try get results..')
for i in range(11):
try:
r = result.get(timeout=10)
print('result: %s' % r)
except queue.Empty:
print('result queue is empty.')
manager.shutdown()
print('master exit.')
# taskworker2.py
import time, queue
from multiprocessing.managers import BaseManager
# 由于这个QueueManager只从网络上获取Queue,所以注册时只提供名字:
BaseManager.register('get_task_queue')
BaseManager.register('get_result_queue')
# 连接到服务器,也就是运行taskmanager.py的机器:
server_addr = '127.0.0.1'
print('Connect to server %s...' % server_addr)
# 端口和验证码注意保持与task_master.py设置的完全一致:
m = BaseManager(address=(server_addr, 5000), authkey=b'abc')
# 从网络连接:
m.connect()
# 获取Queue的对象:
task = m.get_task_queue()
result = m.get_result_queue()
# 从task队列取任务,并把结果写入result队列:
for i in range(11):
try:
n = task.get(timeout=1)
print('run task %d * %d...' % (n, n))
r = '%d * %d = %d' % (n, n, n*n)
time.sleep(1)
result.put(r)
except queue.Empty:
print('task queue is empty.')
# 处理结束:
print('worker exit.')