文章目录
  1. 1. 多进程
    1. 1.1. fork操作(Unix/Linux)
    2. 1.2. multiprocessing
    3. 1.3. pool
    4. 1.4. 子进程
    5. 1.5. 进程间通信
  2. 2. 多线程
    1. 2.1. Lock
    2. 2.2. 多核CPU
  3. 3. ThreadLocal
  4. 4. 进程 VS 线程
    1. 4.1. 计算密集型 vs. IO密集型
    2. 4.2. 异步IO
  5. 5. 分布式进程

多进程

fork操作(Unix/Linux)

Unix/Linux操作系统提供了一个fork()系统调用,它非常特殊.普通的函数调用,调用一次,返回一次,但是fork()调用一次,返回两次,因为操作系统自动把当前进程(称为父进程)复制了一份(称为子进程),然后,分别在父进程和子进程内返回.

子进程永远返回0,而父进程返回子进程的ID.这样做的理由是,一个父进程可以fork出很多子进程,所以,父进程要记下每个子进程的ID,而子进程只需要调用getppid()就可以拿到父进程的ID.

有了fork调用,一个进程在接到新任务时就可以复制出一个子进程来处理新任务,常见的Apache服务器就是由父进程监听端口,每当有新的http请求时,就fork出子进程来处理新的http请求.

multiprocessing

如果你打算编写多进程的服务程序,Unix/Linux无疑是正确的选择.由于Windows没有fork调用,难道在Windows上无法用Python编写多进程的程序?由于Python是跨平台的,自然也应该提供一个跨平台的多进程支持.multiprocessing模块就是跨平台版本的多进程模块.

示例如下:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
from multiprocessing import Process
import os

# 子进程要执行的代码
def run_proc(name):
print('Run child process %s (%s)...' % (name, os.getpid()))

if __name__=='__main__':
print('Parent process %s.' % os.getpid())
p = Process(target=run_proc, args=('test',))
print('Child process will start.')
p.start()
p.join()
print('Child process end.')

创建子进程时,只需要传入一个执行函数和函数的参数,创建一个Process实例,用start()方法启动,这样创建进程比fork()还要简单.

join()方法可以等待子进程结束后再继续往下运行,通常用于进程间的同步.

pool

如果要启动大量的子进程,可以用进程池的方式批量创建子进程,示例如下:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
from multiprocessing import Pool
import os, time, random

def long_time_task(name):
print('Run task %s (%s)...' % (name, os.getpid()))
start = time.time()
time.sleep(random.random() * 3)
end = time.time()
print('Task %s runs %0.2f seconds.' % (name, (end - start)))

if __name__=='__main__':
print('Parent process %s.' % os.getpid())
p = Pool(4)
for i in range(5):
p.apply_async(long_time_task, args=(i,))
print('Waiting for all subprocesses done...')
p.close()
p.join()
print('All subprocesses done.')

对Pool对象调用join()方法会等待所有子进程执行完毕,调用join()之前必须先调用close(),调用close()之后就不能继续添加新的Process了.

子进程

很多时候,子进程并不是自身,而是一个外部进程.我们创建了子进程后,还需要控制子进程的输入和输出.subprocess模块可以让我们非常方便地启动一个子进程,然后控制其输入和输出.

进程间通信

Process之间肯定是需要通信的,操作系统提供了很多机制来实现进程间的通信.Python的multiprocessing模块包装了底层的机制,提供了Queue、Pipes等多种方式来交换数据.示例如下:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
from multiprocessing import Process, Queue
import os, time, random

# 写数据进程执行的代码:
def write(q):
print('Process to write: %s' % os.getpid())
for value in ['A', 'B', 'C']:
print('Put %s to queue...' % value)
q.put(value)
time.sleep(random.random())

# 读数据进程执行的代码:
def read(q):
print('Process to read: %s' % os.getpid())
while True:
value = q.get(True)
print('Get %s from queue.' % value)

if __name__=='__main__':
# 父进程创建Queue,并传给各个子进程:
q = Queue()
pw = Process(target=write, args=(q,))
pr = Process(target=read, args=(q,))
# 启动子进程pw,写入:
pw.start()
# 启动子进程pr,读取:
pr.start()
# 等待pw结束:
pw.join()
# pr进程里是死循环,无法等待其结束,只能强行终止:
pr.terminate()


多线程

由于线程是操作系统直接支持的执行单元,因此,高级语言通常都内置多线程的支持,Python也不例外,并且,Python的线程是真正的Posix Thread,而不是模拟出来的线程.

Python的标准库提供了两个模块:_thread和threading,_thread是低级模块,threading是高级模块,对_thread进行了封装.绝大多数情况下,我们只需要使用threading这个高级模块.

启动一个线程就是把一个函数传入并创建Thread实例,然后调用start()开始执行.

由于任何进程默认就会启动一个线程,我们把该线程称为主线程,主线程又可以启动新的线程,Python的threading模块有个current_thread()函数,它永远返回当前线程的实例.主线程实例的名字叫MainThread,子线程的名字在创建时指定,我们用LoopThread命名子线程.名字仅仅在打印时用来显示,完全没有其他意义,如果不起名字Python就自动给线程命名为Thread-1,Thread-2……

Lock

多线程和多进程最大的不同在于,多进程中,同一个变量,各自有一份拷贝存在于每个进程中,互不影响,而多线程中,所有变量都由所有线程共享,所以,任何一个变量都可以被任何一个线程修改,因此,线程之间共享数据最大的危险在于多个线程同时改一个变量,把内容给改乱了.

当多个线程同时执行lock.acquire()时,只有一个线程能成功地获取锁,然后继续执行代码,其他线程就继续等待直到获得锁为止.

获得锁的线程用完后一定要释放锁,否则那些苦苦等待锁的线程将永远等待下去,成为死线程.所以我们用try…finally来确保锁一定会被释放.

锁的好处就是确保了某段关键代码只能由一个线程从头到尾完整地执行,坏处当然也很多,首先是阻止了多线程并发执行,包含锁的某段代码实际上只能以单线程模式执行,效率就大大地下降了.其次,由于可以存在多个锁,不同的线程持有不同的锁,并试图获取对方持有的锁时,可能会造成死锁,导致多个线程全部挂起,既不能执行,也无法结束,只能靠操作系统强制终止.

多核CPU

启动与CPU核心数量相同的N个线程,在4核CPU上可以监控到CPU占用率仅有102%,也就是仅使用了一核.

但是用C、C++或Java来改写相同的死循环,直接可以把全部核心跑满,4核就跑到400%,8核就跑到800%,为什么Python不行呢?

因为Python的线程虽然是真正的线程,但解释器执行代码时,有一个GIL锁:Global Interpreter Lock,任何Python线程执行前,必须先获得GIL锁,然后,每执行100条字节码,解释器就自动释放GIL锁,让别的线程有机会执行.这个GIL全局锁实际上把所有线程的执行代码都给上了锁,所以,多线程在Python中只能交替执行,即使100个线程跑在100核CPU上,也只能用到1个核.

GIL是Python解释器设计的历史遗留问题,通常我们用的解释器是官方实现的CPython,要真正利用多核,除非重写一个不带GIL的解释器.

所以,在Python中,可以使用多线程,但不要指望能有效利用多核.如果一定要通过多线程利用多核,那只能通过C扩展来实现,不过这样就失去了Python简单易用的特点.

不过,也不用过于担心,Python虽然不能利用多线程实现多核任务,但可以通过多进程实现多核任务.多个Python进程有各自独立的GIL锁,互不影响

ThreadLocal

在多线程环境下,每个线程都有自己的数据.一个线程使用自己的局部变量比使用全局变量好,因为局部变量只有线程自己能看见,不会影响其他线程,而全局变量的修改必须加锁.但是局部变量也有问题,就是在函数调用的时候,传递起来很麻烦.可以在本地建立一个dict,然后把对应线程需要操作的对象以该线程id为key放进去,在需要用到的函数里面直接根据当前线程id取出来使用即可,但是这种方式仍然存在弊端,就是存取dict的操作看起来非常突兀,比较杂乱.

所,这个时候ThreadLocal就应运而生了,不用查找dict,ThreadLocal帮你自动做这件事,示例如下:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
import threading

# 创建全局ThreadLocal对象:
local_school = threading.local()

def process_student():
# 获取当前线程关联的student:
std = local_school.student
print('Hello, %s (in %s)' % (std, threading.current_thread().name))

def process_thread(name):
# 绑定ThreadLocal的student:
local_school.student = name
process_student()

t1 = threading.Thread(target= process_thread, args=('Alice',), name='Thread-A')
t2 = threading.Thread(target= process_thread, args=('Bob',), name='Thread-B')
t1.start()
t2.start()
t1.join()
t2.join()

全局变量local_school就是一个ThreadLocal对象,每个Thread对它都可以读写student属性,但互不影响.你可以把local_school看成全局变量,但每个属性如local_school.student都是线程的局部变量,可以任意读写而互不干扰,也不用管理锁的问题,ThreadLocal内部会处理.

可以理解为全局变量local_school是一个dict,不但可以用local_school.student,还可以绑定其他变量,如local_school.teacher等等.

ThreadLocal最常用的地方就是为每个线程绑定一个数据库连接,HTTP请求,用户身份信息等,这样一个线程的所有调用到的处理函数都可以非常方便地访问这些资源.

一个ThreadLocal变量虽然是全局变量,但每个线程都只能读写自己线程的独立副本,互不干扰.ThreadLocal解决了参数在一个线程中各个函数之间互相传递的问题.

进程 VS 线程

首先,要实现多任务,通常我们会设计Master-Worker模式,Master负责分配任务,Worker负责执行任务,因此,多任务环境下,通常是一个Master,多个Worker.

如果用多进程实现Master-Worker,主进程就是Master,其他进程就是Worker.

如果用多线程实现Master-Worker,主线程就是Master,其他线程就是Worker.

无论是多进程还是多线程,只要数量一多,效率肯定上不去,为什么呢?因为系统调度进程切换也是需要资源的,需要保存当前的系统状态,然后调度系统给其他进程开辟新的资源,如果进程多到一定程度,系统资源全部都给调度进程使用了,就会使系统卡死,处于一种假死状态.

计算密集型 vs. IO密集型

计算密集型任务的特点是要进行大量的计算,消耗CPU资源,比如计算圆周率、对视频进行高清解码等等,全靠CPU的运算能力.这种计算密集型任务虽然也可以用多任务完成,但是任务越多,花在任务切换的时间就越多,CPU执行任务的效率就越低,所以,要最高效地利用CPU,计算密集型任务同时进行的数量应当等于CPU的核心数.

计算密集型任务由于主要消耗CPU资源,因此,代码运行效率至关重要.Python这样的脚本语言运行效率很低,完全不适合计算密集型任务.对于计算密集型任务,最好用C语言编写.

第二种任务的类型是IO密集型,涉及到网络、磁盘IO的任务都是IO密集型任务,这类任务的特点是CPU消耗很少,任务的大部分时间都在等待IO操作完成(因为IO的速度远远低于CPU和内存的速度).对于IO密集型任务,任务越多,CPU效率越高,但也有一个限度.常见的大部分任务都是IO密集型任务,比如Web应用.

IO密集型任务执行期间,99%的时间都花在IO上,花在CPU上的时间很少,因此,用运行速度极快的C语言替换用Python这样运行速度极低的脚本语言,完全无法提升运行效率.对于IO密集型任务,最合适的语言就是开发效率最高(代码量最少)的语言,脚本语言是首选,C语言最差.

考虑到CPU和IO之间巨大的速度差异,一个任务在执行的过程中大部分时间都在等待IO操作,单进程单线程模型会导致别的任务无法并行执行,因此,我们才需要多进程模型或者多线程模型来支持多任务并发执行.

异步IO

现代操作系统对IO操作已经做了巨大的改进,最大的特点就是支持异步IO.如果充分利用操作系统提供的异步IO支持,就可以用单进程单线程模型来执行多任务,这种全新的模型称为事件驱动模型,Nginx就是支持异步IO的Web服务器,它在单核CPU上采用单进程模型就可以高效地支持多任务.在多核CPU上,可以运行多个进程(数量与CPU核心数相同),充分利用多核CPU.由于系统总的进程数量十分有限,因此操作系统调度非常高效.用异步IO编程模型来实现多任务是一个主要的趋势.

对应到Python语言,单线程的异步编程模型称为协程,有了协程的支持,就可以基于事件驱动编写高效的多任务程序.

分布式进程

在Thread和Process中,应当优选Process,因为Process更稳定,而且,Process可以分布到多台机器上,而Thread最多只能分布到同一台机器的多个CPU上.

Python的multiprocessing模块不但支持多进程,其中managers子模块还支持把多进程分布到多台机器上.一个服务进程可以作为调度者,将任务分布到其他多个进程中,依靠网络通信.由于managers模块封装很好,不必了解网络通信的细节,就可以很容易地编写分布式多进程程序.

举个例子:如果我们已经有一个通过Queue通信的多进程程序在同一台机器上运行,现在,由于处理任务的进程任务繁重,希望把发送任务的进程和处理任务的进程分布到两台机器上.怎么用分布式进程实现?

原有的Queue可以继续使用,但是,通过managers模块把Queue通过网络暴露出去,就可以让其他机器的进程访问Queue了.

我们先看服务进程,服务进程负责启动Queue,把Queue注册到网络上,然后往Queue里面写入任务:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
# task_master.py

import random, time, queue
from multiprocessing.managers import BaseManager

# 发送任务的队列:
task_queue = queue.Queue()
# 接收结果的队列:
result_queue = queue.Queue()

# 从BaseManager继承的QueueManager:
class QueueManager(BaseManager):
pass

# 把两个Queue都注册到网络上, callable参数关联了Queue对象:
QueueManager.register('get_task_queue', callable=lambda: task_queue)
QueueManager.register('get_result_queue', callable=lambda: result_queue)
# 绑定端口5000, 设置验证码'abc':
manager = QueueManager(address=('', 5000), authkey=b'abc')
# 启动Queue:
manager.start()
# 获得通过网络访问的Queue对象:
task = manager.get_task_queue()
result = manager.get_result_queue()
# 放几个任务进去:
for i in range(10):
n = random.randint(0, 10000)
print('Put task %d...' % n)
task.put(n)
# 从result队列读取结果:
print('Try get results...')
for i in range(10):
r = result.get(timeout=10)
print('Result: %s' % r)
# 关闭:
manager.shutdown()
print('master exit.')

请注意,当我们在一台机器上写多进程程序时,创建的Queue可以直接拿来用,但是,在分布式多进程环境下,添加任务到Queue不可以直接对原始的task_queue进行操作,那样就绕过了QueueManager的封装,必须通过manager.get_task_queue()获得的Queue接口添加.

然后,在另一台机器上启动任务进程(本机上启动也可以):

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
# task_master.py

import random,time,queue
from multiprocessing.managers import BaseManager



# 发送任务的队列
task_queue = queue.Queue()
# 接受结果的队列
result_queue = queue.Queue()
# 从baseManager继承的QueueManager:
class QueueManager(BaseManager):
pass



# 把两个Queue都注册到网络上,callable参数关联了Queue对象:
QueueManager.register('get_task_queue',callable=lambda : task_queue)
QueueManager.register('get_result_queue',callable=lambda : result_queue)
# 绑定端口50000,设置验证码'abc'
manager = QueueManager(address=('127.0.0.1',5000),authkey=b'abc')
# 启动Queue:
manager.start()
# 获取通过网路访问的Queue对象:
task = manager.get_task_queue()
result = manager.get_result_queue()



# 放几个任务进去:
for i in range(10):
n = random.randint(0,10000)
print('Put task %d...' % n)
task.put(n)

# 从Result队列读取结果:
print('Try get results...')
for i in range(10):
try:
r = result.get(timeout=100)
print('Result: %s' % r)
except Queue.Empty:
print('Get nothing.')

# 关闭
manager.shutdown()
print('Manager exit.')

然后,在另一台机器上启动任务进程(本机上启动也可以):

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
# task_worker.py

import time, sys, queue
from multiprocessing.managers import BaseManager

# 创建类似的queueManager
class QueueManger(BaseManager):
pass



# 由于这个QueueManager只能从网络上获取Queue,所以注册时只提供名字:
QueueManger.register('get_task_queue')
QueueManger.register('get_result_queue')
# 链接到服务,也就是运行task_master.py的机器:
server_addr = '127.0.0.1'
print('Work Connect to server: %s...' % server_addr)
# 端口验证码注意保持与task_master.py设置的完全一致:
manager = QueueManger(address=(server_addr, 5000), authkey=b'abc')
# 从网络连接:
manager.connect()



# 获取Queue的对象:
task = manager.get_task_queue()
result = manager.get_result_queue()

# 从task队列取任务,并且把结果写入Reuslt队列
for i in range(5):
try:
n = task.get(timeout=2)
print('Work Run task %d * %d' % (n,n))
r = '%d * %d = %d' % (n,n,n*n)
time.sleep(2)
result.put(r)
except Queue.empty:
print('Task queue is empty.')

# 处理结束
print('Worker exit.')

先运行Master任务分发进程,然后启动worker任务处理进程(这个处理进程可以是多个,在多个设备上).

Python的分布式进程接口简单,封装良好,适合需要把繁重任务分布到多台机器的环境下.

注意Queue的作用是用来传递任务和接收结果,每个任务的描述数据量要尽量小.比如发送一个处理日志文件的任务,就不要发送几百兆的日志文件本身,而是发送日志文件存放的完整路径,由Worker进程再去共享的磁盘上读取文件.

文章目录
  1. 1. 多进程
    1. 1.1. fork操作(Unix/Linux)
    2. 1.2. multiprocessing
    3. 1.3. pool
    4. 1.4. 子进程
    5. 1.5. 进程间通信
  2. 2. 多线程
    1. 2.1. Lock
    2. 2.2. 多核CPU
  3. 3. ThreadLocal
  4. 4. 进程 VS 线程
    1. 4.1. 计算密集型 vs. IO密集型
    2. 4.2. 异步IO
  5. 5. 分布式进程