Python 多进程编程

多进程编程

multiprocessing

由于 GIL(全局解释锁) 的原因, 多线程并不能充分利用多核处理器, 如果是一个 CPU 计算型的任务, 应该使用多进程模块 multiprocessing, 它的工作方式与线程库不同, 但是两种库的接口相似。multiprocessing 给每个进程赋予了单独的 Python 解释器, 这样就规避了 GIL 所带来的问题。

import multiprocessing


def worker():
    print('Worker')


if __name__ == '__main__':
    jobs = []
    for i in range(5):
        p = multiprocessing.Process(target=worker)
        jobs.append(p)
        p.start()

# 输出:
Worker
Worker
Worker
Worker
Worker

目标函数也支持传入参数:

import multiprocessing


def worker(num):
    print(f'Worker: {num}')


if __name__ == '__main__':
    jobs = []
    for i in range(5):
        p = multiprocessing.Process(target=worker, args=(i, ))
        jobs.append(p)
        p.start()


# 输出:
Worker: 0
Worker: 1
Worker: 3
Worker: 2
Worker: 4

守护进程

和多线程模块一样, 多进程也是可以设置守护进程的, 守护进程可以一直运行而不影响主程序的结束。

import multiprocessing
import time


def daemon():
    p = multiprocessing.current_process() # 获取当前的进程
    print(f'Starting: {p.name} {p.pid}')
    time.sleep(2)
    print(f'Exiting: {p.name} {p.pid}')



def non_daemon():
    p = multiprocessing.current_process()
    print(f'Starting: {p.name} {p.pid}')
    print(f'Exiting: {p.name} {p.pid}')


if __name__ == '__main__':
    d = multiprocessing.Process(
        name = 'daemon',
        target = daemon,
        daemon=True
    )

    n = multiprocessing.Process(
        name = 'non-daemon',
        target = non_daemon,
    )

    d.start()
    time.sleep(1)
    n.start()

# 输出:
Starting: daemon 7068
Starting: non-daemon 10116
Exiting: non-daemon 10116

通过上面代码的输出可以看到, 守护进程没有完成程序就结束了。如果需要等待守护进程完成工作后再结束, 可以使用 join() 方法:

import multiprocessing
import time


def daemon():
    p = multiprocessing.current_process() # 获取当前的进程
    print(f'Starting: {p.name} {p.pid}')
    time.sleep(2)
    print(f'Exiting: {p.name} {p.pid}')



def non_daemon():
    p = multiprocessing.current_process()
    print(f'Starting: {p.name} {p.pid}')
    print(f'Exiting: {p.name} {p.pid}')


if __name__ == '__main__':
    d = multiprocessing.Process(
        name = 'daemon',
        target = daemon,
        daemon=True
    )

    n = multiprocessing.Process(
        name = 'non-daemon',
        target = non_daemon,
    )

    d.start()
    time.sleep(1)
    n.start()

    d.join()
    n.join()

# 输出:
Starting: daemon 2928
Starting: non-daemon 13376
Exiting: non-daemon 13376
Exiting: daemon 2928

join() 方法接收一个超时的参数, 默认是 none, 表示会一直阻塞, 可以设置一个超时时间, 在这个时间内没有完成, 就会阻塞:

import multiprocessing
import time


def daemon():
    p = multiprocessing.current_process() # 获取当前的进程
    print(f'Starting: {p.name} {p.pid}')
    time.sleep(2)
    print(f'Exiting: {p.name} {p.pid}')



def non_daemon():
    p = multiprocessing.current_process()
    print(f'Starting: {p.name} {p.pid}')
    print(f'Exiting: {p.name} {p.pid}')


if __name__ == '__main__':
    d = multiprocessing.Process(
        name = 'daemon',
        target = daemon,
        daemon=True
    )

    n = multiprocessing.Process(
        name = 'non-daemon',
        target = non_daemon,
    )

    d.start()
    time.sleep(1)
    n.start()

    d.join(1) # 传入的是 1 秒, 小于守护进程里面设置的两秒
    print('d.is_alive()', d.is_alive()) # 得到进程当前的状态
    n.join()

# 输出:
Starting: daemon 7272
Starting: non-daemon 5872
Exiting: non-daemon 5872
d.is_alive() True

进程池

任务的执行周期决定了 CPU 核数和任务的分配算法, 使用多进程编程 Pool 是一个很灵活的保证效率的方法:

from functools import lru_cache
from multiprocessing import Pool


# lur_cache 装饰器使用最近最少使用算法
# 会把最近使用的对象存储起来, 并把最近最少使用的对象在缓存值达到预设值之前从内存中移除
# 这里 maxsize 设置为 None, 表示永远都不会达到这个预设值
# lru_cache 这个装饰器适合把耗时的函数的执行结果保存起来, 避免传入相同的参数时重复计算
@lru_cache(maxsize=None)
def fib(n):
    if n < 2:
        return n
    return fib(n-1) + fib(n-2)

if __name__ == '__main__':
    # 在 windows 下运行会造成 RuntimeError, 应该使用 __name__ == '__main__' 来保护程序的入口点
    pool = Pool(2)
    pool.map(fib, [35] * 2)

dummy

multiprocessing.dummy 这个子模块虽然在多进程模块的代码中, 但是接口和多线程的接口基本是一样的, 如果分不清一个任务是 CPU 密集型还是 I/O 密集型, 可以使用如下方法去试:

from multiprocessing import Pool
from multiprocessing.dummy import Pool

这种兼容的方式, 便于在多线程/多进程之间切换。

Queue(队列)

多线程里面有 Queue 模块实现队列, 多进程的 multiprocessing 里面包含了 Queue 这个类, 它是线程和进程安全的。下面是一个生产者/消费者的例子, 用到了两个队列, 一个队列用于存储完成的任务, 另外一个用于存储任务完成后的结果:

import time
from multiprocessing import Process, JoinableQueue, Queue
from random import random


def double(n):
    return n * 2


def producer(in_queue):
    while 1:
        wait_time = random()
        time.sleep(wait_time)
        in_queue.put((double, wait_time))
        if wait_time > 0.9:
            in_queue.put(None)
            print('停止生产')
            break


def consumer(in_queue, out_queue):
    while 1:
        task = in_queue.get()
        if task is None:
            break
        func, arg = task
        result = func(arg)
        in_queue.task_done()
        out_queue.put(result)


if __name__ == '__main__':
    tasks_queue = JoinableQueue() # JoinableQueue 里面有 join() 方法和 task_done() 方法, 而 Queue 内没有, tasks_queue 可以用这两个方法来标识任务是否完成以决定要不要阻塞下去
    results_queue = Queue()
    processes = []

    p = Process(target=producer, args=(tasks_queue, ))
    p.start()
    processes.append(p)

    p = Process(target=consumer, args=(tasks_queue, results_queue))
    p.start()
    processes.append(p)

    tasks_queue.join()

    for p in processes:
        p.join()

    while True:
        if results_queue.empty():
            break
        result = results_queue.get()
        print(f'Result: {result}')

# 输出:
停止生产
Result: 1.3500119015795484
Result: 1.7651301976930043
Result: 1.6336519677702004
Result: 0.06429843269363
Result: 0.29352347406759494
Result: 1.0097954936153397
Result: 0.19863644698178606
Result: 0.9589181928209678
Result: 1.4618869426710388
Result: 1.6837862156424794
Result: 0.8653351112396082
Result: 1.5958573192798793
Result: 0.15849993035736087
Result: 1.3471427672620973
Result: 1.7492282062851205
Result: 0.27695109993667644
Result: 0.7201581558818728
Result: 1.9614106580291402

进程间共享状态

multiprocessing 提供了在进程之间共享状态的方案, 主要有两种: 共享内存服务器进程

共享内存

共享内存主要通过 Value 和 Array 来实现, 在多个进程之间共享一份数据, 常见的共享类型有下面这些:

>>> from multiprocessing.sharedctypes import typecode_to_type
>>> typecode_to_type
{'c': <class 'ctypes.c_char'>, # 左边是缩写, 右边是全称
'u': <class 'ctypes.c_wchar'>,
'b': <class 'ctypes.c_byte'>,
'B': <class 'ctypes.c_ubyte'>,
'h': <class 'ctypes.c_short'>,
'H': <class 'ctypes.c_ushort'>,
'i': <class 'ctypes.c_long'>,
'I': <class 'ctypes.c_ulong'>,
'l': <class 'ctypes.c_long'>,
'L': <class 'ctypes.c_ulong'>,
'f': <class 'ctypes.c_float'>,
'd': <class 'ctypes.c_double'>}

下面是一个共享内存的实现示例:

from multiprocessing import Process, Lock
from multiprocessing.sharedctypes import Value, Array
from ctypes import Structure, c_bool, c_double


class Point(Structure):
    _fields_ = [('x', c_double), ('y', c_double)]


def modify(n, b, s, arr, A):
    n.value **= 2
    b.value = True
    s.value = s.value.upper()
    arr[0] = 10
    for a in A:
        a.x **= 2
        a.y **= 2


if __name__ == '__main__':
    lock = Lock()

    n = Value('i', 7) # 这里使用的共享类型的缩写
    b = Value(c_bool, False, lock=False)
    s = Array('c', b'hello world', lock=lock)
    arr = Array('i', range(5), lock=True)
    A = Array(Point, [(1.525, -6.25), (-5.75, 2.5)], lock=lock)

    p = Process(target=modify, args=(n, b, s, arr, A)) # 通过 modify() 把这些内容的值更改
    p.start()
    p.join()

    print(n.value)
    print(b.value)
    print(s.value)
    print(arr[:])
    print([(a.x, a.y) for a in A])

# 输出
49
True
b'HELLO WORLD'
[10, 1, 2, 3, 4]
[(2.3256249999999996, 39.0625), (33.0625, 6.25)]

服务器进程

一个 multiprocessing 的 Manager 对象会控制一个服务器的进程, 其他进程可以通过代理的方式来访问这个服务器进程, 常见的共享方式有以下几种:

  1. Namespace: 创建一个可分享的命名空间。

  2. Value/Array: 和共享内存中共享 ctypes 对象的方式一样。

  3. dict/list: 创建一个可分享的 dict/list, 支持对应数据结构的方法。

  4. Condition/Event/Lock/Queue/Semaphore: 创建一个可分享的对应同步原语的对象。

from multiprocessing import Manager, Process


def modify(ns, lproxy, dproxy):
    ns.a **= 2
    lproxy.extend(['b', 'c'])
    dproxy['b'] = 1


if __name__ == '__main__':
    manager = Manager()
    ns = manager.Namespace() # 创建一个命名空间
    ns.a = 1
    lproxy = manager.list()
    lproxy.append('a')
    dproxy = manager.dict()
    dproxy['b'] = 0

    p = Process(target=modify, args=(ns, lproxy, dproxy))
    p.start()
    print(f'PID: {p.pid}')
    p.join()

    print(ns.a)
    print(lproxy)
    print(dproxy)

# 输出:
PID: 6556
1
['a', 'b', 'c']
{'b': 1}

分布式的进程间通信

使用 manager 可以实现一个简单的分布式的不同服务器之间不同进程的通信, 也就是一个简单的 client/server 模型:

# remote_server.py

from multiprocessing.managers import BaseManager


class RemoteManager(BaseManager):
    pass


if __name__ == '__main__':
    host = '127.0.0.1'  # 主机名
    port = 5000 # 端口
    authkey = b'secret' # 验证 key

    shared_list = [] # 分享列表

    RemoteManager.register('get_list', callable=lambda: shared_list) # 远程服务器支持 get_list 方法, 可以获得 shared_list 的值
    mgr = RemoteManager(address=(host, port), authkey=authkey)
    server = mgr.get_server()
    server.serve_forever()
# client.py

from multiprocessing.managers import BaseManager


class RemoteManager(BaseManager):
    pass


if __name__ == '__main__':
    host = '127.0.0.1'
    port = 5000
    authkey = b'secret'

    RemoteManager.register('get_list')
    mgr = RemoteManager(address=(host, port), authkey=authkey)
    mgr.connect()

    l = mgr.get_list() # 拿到分享的 list
    print(l) # 一开始 l 为 空
    l.append(1) # 添加一个值 1
    print(mgr.get_list())
> python remote_server.py

> python client.py
[]
[1]
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 196,200评论 5 462
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 82,526评论 2 373
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 143,321评论 0 325
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 52,601评论 1 267
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 61,446评论 5 358
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 46,345评论 1 273
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 36,753评论 3 387
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 35,405评论 0 255
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 39,712评论 1 294
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 34,743评论 2 314
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 36,529评论 1 326
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 32,369评论 3 315
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 37,770评论 3 300
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,026评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 30,301评论 1 251
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 41,732评论 2 342
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 40,927评论 2 336

推荐阅读更多精彩内容

  • 1.ios高性能编程 (1).内层 最小的内层平均值和峰值(2).耗电量 高效的算法和数据结构(3).初始化时...
    欧辰_OSR阅读 29,259评论 8 265
  • 引言 讲到进程,不得不先说下linux的fork()函数,一个进程调用fork()函数后,系统先给新的进程分配资源...
    StormZhu阅读 1,540评论 0 1
  • 又来到了一个老生常谈的问题,应用层软件开发的程序员要不要了解和深入学习操作系统呢? 今天就这个问题开始,来谈谈操...
    tangsl阅读 4,077评论 0 23
  • 互联网上面现在有很多很多的免费资源、免费微课,曾何几时我的朋友圈经常就是一句“报名参加”后面附上听课链接,然后截图...
    Jeudi阅读 373评论 0 2
  • 她又遇见爱情了,在被伤的遍体鳞伤后。有时候我挺佩服她的勇气,终究比我勇敢。我有时候觉得很奇怪,我们这样的两个人怎么...
    喻喻喻菇凉阅读 191评论 0 1