主要内容
- Gevent协程
- Select\Poll\Epoll异步IO与事件驱动
- selectors 模块 多并发演示
协程
协程,又称微线程,纤程。英文名Coroutine。一句话说明什么是线程:协程是一种用户态的轻量级线程。
协程拥有自己的寄存器上下文和栈。协程调度切换时,将寄存器上下文和栈保存到其他地方,在切回来的时候,恢复先前保存的寄存器上下文和栈。因此:
协程能保留上一次调用时的状态(即所有局部状态的一个特定组合),每次过程重入时,就相当于进入上一次调用的状态,换种说法:进入上一次离开时所处逻辑流的位置。
协程的好处:
- 无需线程上下文切换的开销
- 无需原子操作锁定及同步的开销
- "原子操作(atomic operation)是不需要synchronized",所谓原子操作是指不会被线程调度机制打断的操作;这种操作一旦开始,就一直运行到结束,中间不会有任何 context switch (切换到另一个线程)。原子操作可以是一个步骤,也可以是多个操作步骤,但是其顺序是不可以被打乱,或者切割掉只执行部分。视作整体是原子性的核心。
- 方便切换控制流,简化编程模型
- 高并发+高扩展性+低成本:一个CPU支持上万的协程都不是问题。所以很适合用于高并发处理。
缺点:
- 无法利用多核资源:协程的本质是个单线程,它不能同时将 单个CPU 的多个核用上,协程需要和进程配合才能运行在多CPU上.当然我们日常所编写的绝大部分应用都没有这个必要,除非是cpu密集型应用。
- 进行阻塞(Blocking)操作(如IO时)会阻塞掉整个程序
协程一个标准定义,即符合什么条件就能称之为协程:
- 必须在只有一个单线程里实现并发
- 修改共享数据不需加锁
- 用户程序里自己保存多个控制流的上下文栈
- 一个协程遇到IO操作自动切换到其它协程
Greenlet
greenlet是一个用C实现的协程模块,相比与python自带的yield,它可以使你在任意函数之间随意切换,而不需把这个函数先声明为generator
1 from greenlet import greenlet 2 def test1(): 3 print(12) 4 gr2.switch() 5 print(34) 6 gr2.switch() 7 8 def test2(): 9 print(56)10 gr1.switch()11 print(78)12 13 gr1 = greenlet(test1)14 gr2 = greenlet(test2)15 gr1.switch()
感觉确实用着比generator还简单了呢,但好像还没有解决一个问题,就是遇到IO操作,自动切换,对不对?
Gevent
Gevent 是一个第三方库,可以轻松通过gevent实现并发同步或异步编程,在gevent中用到的主要模式是Greenlet, 它是以C扩展模块形式接入Python的轻量级协程。 Greenlet全部运行在主程序操作系统进程的内部,但它们被协作式地调度。
1 import gevent 2 3 def func1(): 4 print('我在吃西瓜...') 5 gevent.sleep(2) 6 print('我回来继续吃西瓜...') 7 8 def func2(): 9 print('我去吃芒果...')10 gevent.sleep(1)11 print('我吃完西瓜,回去继续吃芒果...')12 13 gevent.joinall([14 gevent.spawn(func1),15 gevent.spawn(func2),16 ])
输出:
我在吃西瓜...
我去吃芒果...
我回来继续吃西瓜...
我吃完西瓜,回去继续吃芒果...
同步与异步的性能区别
1 # _*_coding:utf-8_*_ 2 # Author:Jaye He 3 4 import gevent, time 5 from urllib.request import urlopen 6 from gevent import monkey 7 8 monkey.patch_all() # 把当前程序的所有的IO操作给我单独的做标记触发gevent的遇到IO自动切换线程 9 10 11 def func(url):12 print('[*] Get %s' % url)13 res = urlopen(url)14 data = res.read()15 print('%d bytes received from %s' % (len(data), url))16 17 url = [18 'https://www.python.org/',19 'https://www.yahoo.com/',20 'https://github.com/'21 ]22 23 time_start = time.time()24 25 for i in url:26 func(i)27 print('同步cost', time.time() - time_start)28 29 async_time_start = time.time()30 gevent.joinall(31 [32 gevent.spawn(func, 'https://www.python.org/'),33 gevent.spawn(func, 'https://www.yahoo.com/'),34 gevent.spawn(func, 'https://github.com/')35 ]36 )37 print('异步cost', time.time() - async_time_start)
输出:
[*] Get https://www.python.org/
48708 bytes received from https://www.python.org/[*] Get https://www.yahoo.com/478886 bytes received from https://www.yahoo.com/[*] Get https://github.com/55867 bytes received from https://github.com/同步cost 3.859987258911133[*] Get https://www.python.org/[*] Get https://www.yahoo.com/[*] Get https://github.com/48708 bytes received from https://www.python.org/55867 bytes received from https://github.com/475663 bytes received from https://www.yahoo.com/异步cost 1.8283183574676514效果 很明显
通过gevent实现单线程下的多socket并发
server side
1 import socket 2 import gevent 3 from gevent import socket, monkey 4 5 monkey.patch_all() 6 7 8 def server(port): 9 s = socket.socket()10 s.bind(('0.0.0.0', port))11 s.listen(500)12 while True:13 cli, addr = s.accept()14 gevent.spawn(handle_request, cli)15 16 17 def handle_request(conn):18 try:19 while True:20 data = conn.recv(1024)21 print("recv:", data)22 conn.send(data)23 if not data:24 conn.shutdown(socket.SHUT_WR)25 26 except Exception as ex:27 print(ex)28 finally:29 conn.close()30 31 32 if __name__ == '__main__':33 server(8001)
并发100个socket连接
1 import socket 2 import threading 3 4 5 def sock_conn(): 6 7 client = socket.socket() 8 9 client.connect(("localhost", 8001))10 count = 011 while True:12 client.send(("hello %s" % count).encode("utf-8"))13 14 data = client.recv(1024)15 16 print("[%s]recv from server:" % threading.get_ident(), data.decode()) # 结果17 count += 118 client.close()19 20 21 for i in range(100):22 t = threading.Thread(target=sock_conn)23 t.start()
论事件驱动与异步IO
看图说话讲事件驱动模型
在UI编程中,常常要对鼠标点击进行相应,首先如何获得鼠标点击呢?
方式一:创建一个线程,该线程一直循环检测是否有鼠标点击,那么这个方式有以下几个缺点:1. CPU资源浪费,可能鼠标点击的频率非常小,但是扫描线程还是会一直循环检测,这会造成很多的CPU资源浪费;如果扫描鼠标点击的接口是阻塞的呢?2. 如果是堵塞的,又会出现下面这样的问题,如果我们不但要扫描鼠标点击,还要扫描键盘是否按下,由于扫描鼠标时被堵塞了,那么可能永远不会去扫描键盘;3. 如果一个循环需要扫描的设备非常多,这又会引来响应时间的问题;所以,该方式是非常不好的。方式二:就是事件驱动模型目前大部分的UI编程都是事件驱动模型,如很多UI平台都会提供onClick()事件,这个事件就代表鼠标按下事件。事件驱动模型大体思路如下:1. 有一个事件(消息)队列;2. 鼠标按下时,往这个队列中增加一个点击事件(消息);3. 有个循环,不断从队列取出事件,根据不同的事件,调用不同的函数,如onClick()、onKeyDown()等;4. 事件(消息)一般都各自保存各自的处理函数指针,这样,每个消息都有独立的处理函数;事件驱动编程是一种编程范式,这里程序的执行流由外部事件来决定。它的特点是包含一个事件循环,当外部事件发生时使用回调机制来触发相应的处理。另外两种常见的编程范式是(单线程)同步以及多线程编程。
让我们用例子来比较和对比一下单线程、多线程以及事件驱动编程模型。下图展示了随着时间的推移,这三种模式下程序所做的工作。这个程序有3个任务需要完成,每个任务都在等待I/O操作时阻塞自身。阻塞在I/O操作上所花费的时间已经用灰色框标示出来了。
在单线程同步模型中,任务按照顺序执行。如果某个任务因为I/O而阻塞,其他所有的任务都必须等待,直到它完成之后它们才能依次执行。这种明确的执行顺序和串行化处理的行为是很容易推断得出的。如果任务之间并没有互相依赖的关系,但仍然需要互相等待的话这就使得程序不必要的降低了运行速度。
在多线程版本中,这3个任务分别在独立的线程中执行。这些线程由操作系统来管理,在多处理器系统上可以并行处理,或者在单处理器系统上交错执行。这使得当某个线程阻塞在某个资源的同时其他线程得以继续执行。与完成类似功能的同步程序相比,这种方式更有效率,但程序员必须写代码来保护共享资源,防止其被多个线程同时访问。多线程程序更加难以推断,因为这类程序不得不通过线程同步机制如锁、可重入函数、线程局部存储或者其他机制来处理线程安全问题,如果实现不当就会导致出现微妙且令人痛不欲生的bug。
在事件驱动版本的程序中,3个任务交错执行,但仍然在一个单独的线程控制中。当处理I/O或者其他昂贵的操作时,注册一个回调到事件循环中,然后当I/O操作完成时继续执行。回调描述了该如何处理某个事件。事件循环轮询所有的事件,当事件到来时将它们分配给等待处理事件的回调函数。这种方式让程序尽可能的得以执行而不需要用到额外的线程。事件驱动型程序比多线程程序更容易推断出行为,因为程序员不需要关心线程安全问题。
当我们面对如下的环境时,事件驱动模型通常是一个好的选择:
- 程序中有许多任务,而且…
- 任务之间高度独立(因此它们不需要互相通信,或者等待彼此)而且…
- 在等待事件到来时,某些任务会阻塞。
当应用程序需要在任务间共享可变的数据时,这也是一个不错的选择,因为这里不需要采用同步处理。
网络应用程序通常都有上述这些特点,这使得它们能够很好的契合事件驱动编程模型。
Select\Poll\Epoll异步IO
参考alex老师 讲解的 Select\Poll\Epoll 发展 和 Select详解
http://www.cnblogs.com/alex3714/p/4372426.html
select 多并发socket 例子
import selectimport socketimport sysimport queueserver = socket.socket()server.setblocking(0)server_addr = ('localhost',10000)print('starting up on %s port %s' % server_addr)server.bind(server_addr)server.listen(5)inputs = [server, ] #自己也要监测呀,因为server本身也是个fdoutputs = []message_queues = {}while True: print("waiting for next event...") readable, writeable, exeptional = select.select(inputs,outputs,inputs) #如果没有任何fd就绪,那程序就会一直阻塞在这里 for s in readable: #每个s就是一个socket if s is server: #别忘记,上面我们server自己也当做一个fd放在了inputs列表里,传给了select,如果这个s是server,代表server这个fd就绪了, #就是有活动了, 什么情况下它才有活动? 当然 是有新连接进来的时候 呀 #新连接进来了,接受这个连接 conn, client_addr = s.accept() print("new connection from",client_addr) conn.setblocking(0) inputs.append(conn) #为了不阻塞整个程序,我们不会立刻在这里开始接收客户端发来的数据, 把它放到inputs里, 下一次loop时,这个新连接 #就会被交给select去监听,如果这个连接的客户端发来了数据 ,那这个连接的fd在server端就会变成就续的,select就会把这个连接返回,返回到 #readable 列表里,然后你就可以loop readable列表,取出这个连接,开始接收数据了, 下面就是这么干 的 message_queues[conn] = queue.Queue() #接收到客户端的数据后,不立刻返回 ,暂存在队列里,以后发送 else: #s不是server的话,那就只能是一个 与客户端建立的连接的fd了 #客户端的数据过来了,在这接收 data = s.recv(1024) if data: print("收到来自[%s]的数据:" % s.getpeername()[0], data) message_queues[s].put(data) #收到的数据先放到queue里,一会返回给客户端 if s not in outputs: outputs.append(s) #为了不影响处理与其它客户端的连接 , 这里不立刻返回数据给客户端 else:#如果收不到data代表什么呢? 代表客户端断开了呀 print("客户端断开了",s) if s in outputs: outputs.remove(s) #清理已断开的连接 inputs.remove(s) #清理已断开的连接 del message_queues[s] ##清理已断开的连接 for s in writeable: try : next_msg = message_queues[s].get_nowait() except queue.Empty: print("client [%s]" %s.getpeername()[0], "queue is empty..") outputs.remove(s) else: print("sending msg to [%s]"%s.getpeername()[0], next_msg) s.send(next_msg.upper()) for s in exeptional: print("handling exception for ",s.getpeername()) inputs.remove(s) if s in outputs: outputs.remove(s) s.close() del message_queues[s]
import socketimport sysmessages = [ b'This is the message. ', b'It will be sent ', b'in parts.', ]server_address = ('localhost', 10000)# Create a TCP/IP socketsocks = [ socket.socket(socket.AF_INET, socket.SOCK_STREAM), socket.socket(socket.AF_INET, socket.SOCK_STREAM), ]# Connect the socket to the port where the server is listeningprint('connecting to %s port %s' % server_address)for s in socks: s.connect(server_address)for message in messages: # Send messages on both sockets for s in socks: print('%s: sending "%s"' % (s.getsockname(), message) ) s.send(message) # Read responses on both sockets for s in socks: data = s.recv(1024) print( '%s: received "%s"' % (s.getsockname(), data) ) if not data: print(sys.stderr, 'closing socket', s.getsockname() )
selectors模块多并发演示
使用selectors 模块(协程)实现500并发上传下载, 在本机win10上测试超过500就出现以下情况,主要是windows上selectors 使用的是select, 显示使用的fd太多,有限制
ValueError: too many file descriptors in select()
selectors 服务端
1 # _*_coding:utf-8_*_ 2 # Author:Jaye He 3 4 import selectors 5 import socket 6 import os 7 8 9 class SelectorsServer(object):10 11 def __init__(self, address):12 self.address = address13 self.server = socket.socket()14 self.server.setblocking(False)15 self.sel = selectors.DefaultSelector()16 17 self.fd = {} # 储存每个conn的对应文件句柄和文件大小18 19 def server_start(self):20 """开启Server,然后交给self.accept监听连接请求(接受数据注册EVENT_READ事件)"""21 self.server.bind(self.address)22 self.server.listen(1000)23 self.sel.register(self.server, selectors.EVENT_READ, self.accept)24 25 def accept(self, server):26 """建立连接,然后交给self.read接受从客户端来的数据(接受数据注册EVENT_READ事件)"""27 conn, addr = server.accept()28 conn.setblocking(False)29 # print('accepted form', conn, addr)30 self.sel.register(conn, selectors.EVENT_READ, self.read)31 32 def read(self, conn):33 """接受从客户端来的数据,然后判断需要的操作"""34 data = conn.recv(1024)35 if data:36 if data == b'get':37 # 接收到'get', 就打开文件'歌词.txt',把文件句柄传入self.fd38 # 然后注册EVENT_WRITE事件交给self.get_write发数据给客户端39 f = open('歌词.txt', 'rb')40 file_size = os.path.getsize('歌词.txt')41 conn.send(str(file_size).encode())42 self.fd.update({conn: { 'fd': f, 'file_size': file_size}})43 self.sel.unregister(conn)44 self.sel.register(conn, selectors.EVENT_WRITE, self.get_write)45 elif data == b'put':46 # 接收到'put', 就注册EVENT_READ事件交给self.put_read处理47 self.sel.unregister(conn)48 self.sel.register(conn, selectors.EVENT_READ, self.put_read)49 else:50 # 接受到空数据就从事件列表中注销conn的事件,同时关闭conn51 print('\033[1;33mclosing %s\033[0m' % conn)52 self.sel.unregister(conn)53 conn.close()54 55 def put_read(self, conn):56 """接受并处理客户端发来的数据"""57 data = conn.recv(1024)58 if data: # 有数据,打印数据大小和对应conn59 print(len(data), conn)60 else: # 没有就注销conn,并关闭conn61 print('\033[1;33mclosing %s\033[0m' % conn)62 self.sel.unregister(conn)63 conn.close()64 65 def get_write(self, conn):66 """给客户端发送数据"""67 f = self.fd[conn]['fd']68 file_size = self.fd[conn]['file_size']69 conn.send(f.readline())70 progress = f.tell()71 if progress == file_size:72 # 文件发送完毕,然后继续注册EVENT_READ事件,交给self.read处理73 self.sel.unregister(conn)74 self.sel.register(conn, selectors.EVENT_READ, self.read)75 76 def monitor(self):77 """监听EVENT事件列表,有活动的事件就交给相应方法处理"""78 while True:79 events_list = self.sel.select()80 for key, mask in events_list:81 callback = key.data82 callback(key.fileobj)83 84 85 def main():86 fs = SelectorsServer(('0.0.0.0', 9000))87 fs.server_start()88 fs.monitor()89 90 if __name__ == '__main__':91 main()
selectors 500并发客户端
1 # _*_coding:utf-8_*_ 2 # Author:Jaye He 3 4 import socket 5 import threading 6 7 8 def sock_conn(): 9 pid = threading.current_thread()10 client = socket.socket()11 client.connect(('localhost', 9000))12 13 # 从服务器下载数据14 client.send(b'get')15 file_size = int(client.recv(1024).decode())16 get_size = 017 while True:18 get_data = client.recv(1024)19 get_size += len(get_data)20 print('get', '%sbytes' % len(get_data), pid)21 if get_size == file_size:22 break23 print('\033[1;33mGet Completed %s\033[0m' % pid)24 25 # 向服务器上传数据26 client.send(b'put')27 f = open('歌词.txt', 'rb')28 while True:29 data = f.readline()30 if len(data) != 0:31 client.send(data)32 print('put', '%sbytes' % len(data), pid)33 else:34 print('\033[1;33mPut Completed %s\033[0m' % pid)35 break36 f.close()37 client.close()38 39 threading_list = []40 41 for i in range(500):42 t = threading.Thread(target=sock_conn)43 threading_list.append(t)44 t.start()45 46 for t in threading_list:47 t.join()