视频1 视频21 视频41 视频61 视频文章1 视频文章21 视频文章41 视频文章61 推荐1 推荐3 推荐5 推荐7 推荐9 推荐11 推荐13 推荐15 推荐17 推荐19 推荐21 推荐23 推荐25 推荐27 推荐29 推荐31 推荐33 推荐35 推荐37 推荐39 推荐41 推荐43 推荐45 推荐47 推荐49 关键词1 关键词101 关键词201 关键词301 关键词401 关键词501 关键词601 关键词701 关键词801 关键词901 关键词1001 关键词1101 关键词1201 关键词1301 关键词1401 关键词1501 关键词1601 关键词1701 关键词1801 关键词1901 视频扩展1 视频扩展6 视频扩展11 视频扩展16 文章1 文章201 文章401 文章601 文章801 文章1001 资讯1 资讯501 资讯1001 资讯1501 标签1 标签501 标签1001 关键词1 关键词501 关键词1001 关键词1501 专题2001
python中分布式进程的详细介绍(附示例)
2020-11-27 14:11:46 责编:小采
文档
 本篇文章给大家带来的内容是关于PHP中的SAPI是什么?如何实现?(图文),有一定的参考价值,有需要的朋友可以参考一下,希望对你有所帮助。

在Thread和Process中,应当优选Process,因为Process更稳定,而且,Process可以分布到多台机器上,而Thread最多只能分布到同一台机器的多个CPU上。

Python的 multiprocessing 模块不但支持多进程, 其中 managers 子模块还支持把多进程分布到多台机器上。一个服务进程可以作为调度者,将任务分布到其他多个进程中,依靠网络通信。由于managers模块封装很好,不必了解网络通信的细节,就可以很容易地编写分布式多进程程序。

通过managers模块把Queue通过网络暴露出去,就可以让其他机器的进程访问Queue了。先看服务进程,服务进程负责启动Queue,把Queue注册到网络上,然后往Queue里面写入任务。

BaseManager: 提供了不同机器进程之间共享数据的一种方法;

(重要的点: ip:port)
# task_master.py

import random
from multiprocessing import freeze_support
from queue import Queue
from multiprocessing.managers import BaseManager
# 1. 创建需要的队列
# task_queue:发送任务的队列
# coding=utf-8

import random,time
from queue import Queue
from multiprocessing.managers import BaseManager
from multiprocessing import freeze_support

task_queue = Queue() # 发送任务的队列:
result_queue = Queue() # 接收结果的队列:
class QueueManager(BaseManager): # 从BaseManager继承的QueueManager:
 pass
# windows下运行
def return_task_queue():
 global task_queue
 return task_queue # 返回发送任务队列
def return_result_queue ():
 global result_queue
 return result_queue # 返回接收结果队列

def test():
 # 把两个Queue都注册到网络上, callable参数关联了Queue对象,它们用来进行进程间通信,交换对象
 #QueueManager.register('get_task_queue', callable=lambda: task_queue)
 #QueueManager.register('get_result_queue', callable=lambda: result_queue)
 QueueManager.register('get_task_queue', callable=return_task_queue)
 QueueManager.register('get_result_queue', callable=return_result_queue)
 # 绑定端口4000, 设置验证码'sheenstar':
 #manager = QueueManager(address=('', 4000), authkey=b'sheenstar')
 # windows需要写ip地址
 manager = QueueManager(address=('192.168.1.160', 4000), authkey=b'sheenstar')
 manager.start() # 启动Queue:
 # 获得通过网络访问的Queue对象:
 task = manager.get_task_queue()
 result = manager.get_result_queue()
 for i in range(13): # 放几个任务进去:
 n = random.randint(0, 10000)
 print('Put task %d...' % n)
 task.put(n)
 # 从result队列读取结果:
 print('Try get results...')
 for i in range(13):
 r = result.get(timeout=10)
 print('Result: %s' % r)

 # 关闭:
 manager.shutdown()
 print('master exit.')
if __name__=='__main__':
 freeze_support()
 print('start!')
 test()

运行程序,会等待执行结果10s,如果没有worker端获取任务,返回结果,程序将报错。

当我们在一台机器上写多进程程序时,创建的 Queue 可以直接拿来用,但是,在分布式多进程环境下,添加任务到Queue不可以直接对原始的 task_queue 进行操作,那样就绕过了QueueManager 的封装,必须通过manager.get_task_queue()获得的 Queue 接口添加。

# coding=utf-8
import time, sys
from queue import Queue
from multiprocessing.managers import BaseManager

# 创建类似的QueueManager:
class QueueManager(BaseManager):
 pass

# 由于这个QueueManager只从网络上获取Queue,所以注册时只提供名字:
QueueManager.register('get_task_queue')
QueueManager.register('get_result_queue')

# 连接到服务器,也就是运行task_master.py的机器:
server_addr = '192.168.1.160'
print('Connect to server %s...' % server_addr)
# 端口和验证码注意保持与task_master.py设置的完全一致:
m = QueueManager(address=(server_addr, 4000), authkey=b'sheenstar')
# 从网络连接:
try:
 m.connect()
except:
 print('请先启动task_master.py!')
 #sys.exit("sorry, goodbye!");
# 获取Queue的对象:
task = m.get_task_queue()
result = m.get_result_queue()
# 从task队列取任务,并把结果写入result队列:
for i in range(13):
 try:
 n = task.get()
 print('run task %d * %d...' % (n, n))
 r = '%d * %d = %d' % (n, n, n*n)
 time.sleep(1)
 result.put(r)
 except ConnectionResetError as e:
 print("任务执行结束,自动断开连接")
# 处理结束:
print('worker exit.')

使用命令行运行程序,结果更直观

下载本文
显示全文
专题