两万字长文:基于 Python 协程的并发编程实践
The following article is from 码上观世界 Author 咬定青松
👆 “Python猫” ,一个值得加星标的公众号
作者:咬定青松 | 来源:码上观世界公众号
前言
假设有一批小文件,每个文件都可以通过 mysql load 的方式导入数据库,请问如何操作可以取得较小的时间和资源消耗?
关于这个需求,我们自然会想到各种并发实现方式,比如多进程和多线程。由于众所周知的多进程切换的高昂代价以及在某些场合下需要考虑多进程之间的协调和通信,如果情非得已,恐怕很少会使用到多进程。然而在本文讨论的 python 世界中,多线程可能也不是一个好的选择。详见下文论述。
线程模型
我们知道操作系统的任务调度是基于内核调度实体(KSE,Kernel Scheduling Entity),所以线程的实现也是基于内核调度实体,也就是通过跟内核调度实体绑定实现自身的调度。根据线程与内核实体的对应关系上的区别,线程的实现模型大致可以分为两大类:内核级线程和用户级线程。
- 内核级线程模型
线程与内核线程 KSE 是一对一(1 : 1)的映射模型,也就是每一个用户线程绑定一个实际的内核线程,而线程的调度则完全交付给操作系统内核去做,应用程序对线程的创建、终止以及同步都基于内核提供的系统调用来完成,大部分编程语言的线程库 (比如 Java 的 java.lang.Thread、C++ 的 std::thread 等等) 都属于内核级线程模型。这种模型的优势和劣势同样明显:优势是实现简单,直接借助操作系统内核的线程以及调度器,所以 CPU 可以快速切换调度线程,于是多个线程可以同时运行,因此相较于用户级线程模型它真正做到了并行处理;但它的劣势是,由于直接借助了操作系统内核来创建、销毁和以及多个线程之间的上下文切换和调度,因此资源成本大幅上涨,且对性能影响很大。
- 用户级线程模型
线程与内核线程 KSE 是多对一(N : 1)的映射模型,多个用户线程的一般从属于单个进程并且多线程的调度是由用户自己的线程库来完成,线程的创建、销毁以及多线程之间的协调等操作都是由用户自己的线程库来负责而无须借助系统调用来实现。许多语言实现的协程库 基本上都属于这种方式(比如 python 的 gevent)。由于线程调度是在用户层面完成的,避免了系统调用和 CPU 在用户态和内核态之间切换的开销,因此对系统资源的消耗会小很多,然而该模型有个问题:假设在某个用户进程上的某个用户线程因为一个阻塞调用(比如 I/O 阻塞)而被 CPU 给中断(抢占式调度)了,整个进程将被挂起。因此,该模型并不能做到真正意义上的并发。
python 线程
我们广泛使用的 python 是基于 CPython 实现,然而由于 CPython 的内存管理不是线程安全的,于是引入了一个全局解释锁(Global Interpreter Lock)来保障 Python 的线程安全。正是因为 GIL 的存在,每个线程执行前都需要获取锁,从而导致多线程的并发性大大削弱,完全无法发挥多核的优势。同时 python 的线程切换是基于字节码指令的条数,因此对于 I/O 密集型计算密集型任务勉强还有用武之地,然而对于计算密集型任务,多线程切换的开销将使多线程成为鸡肋,执行效率反而不如单线程。以下是一个验证例子:
顺序执行的单线程 (single_thread.py)
#! /usr/bin/python
from threading import Thread
import time
def my_counter():
i = 0
for _ in range(100000000):
i = i + 1
return True
def main():
thread_array = {}
start_time = time.time()
for tid in range(2):
t = Thread(target=my_counter)
t.start()
t.join()
end_time = time.time()
print("Total time: {}".format(end_time - start_time))
if __name__ == '__main__':
main()
同时执行的两个并发线程 (multi_thread.py)
#! /usr/bin/python
from threading import Thread
import time
def my_counter():
i = 0
for _ in range(100000000):
i = i + 1
return True
def main():
thread_array = {}
start_time = time.time()
for tid in range(2):
t = Thread(target=my_counter)
t.start()
thread_array[tid] = t
for i in range(2):
thread_array[i].join()
end_time = time.time()
print("Total time: {}".format(end_time - start_time))
if __name__ == '__main__':
main()
在 mac os,4 核 8G 内存 1.8MHz python3.7 上测试执行,多线程比单线程慢 2 秒!
另外值得一提的是尽管存在 GIL,但 python 多线程仍然不是线程安全的,对于共享状态的场合仍然需要借助锁同步。既然 python 多线程如此之糟,有没有一种线程切换代价更小和占用资源更低的技术呢?下面该轮到协程闪亮登场了!
协程
协程(Coroutine)又称微线程,属于用户级线程。上文中提到的 gevent 就是一种协程实现方式,除了 gevent 还有 asyncio。下文详细介绍。上文中,我们介绍了用户级线程就是在一个内核调度实体上映射出来的多个用户线程,用户线程的创建、调度和销毁完全由用户程序控制, 对内核调度透明:内核一旦将 cpu 分配给了线程,该 cpu 的使用权就归该线程所有,线程可以再次按照比如时间片轮转等常规调度算法分配给每个微线程,从而实现更大的并发自由度,但所有的微线程只能在该 cpu 上运行,无法做到并行。为了便于理解,我们这里把协程看作这些映射出来的“微线程”。用户程序控制的协程需要解决线程的挂起和唤醒、现场保护等问题,然而区别于线程的是协程不需要处理锁和同步问题,因为多个协程是在一个用户级线程内进行的,但需要处理因为单个协程阻塞导致整个线程(进程)阻塞的问题。下图展示线程和协程的对照关系:
生成器 - 协程基础
理解协程的挂起和唤醒,不得不提到生成器。生成器也是函数,但跟普通的函数稍有区别,请看下面定义的生成器:
def countdown(n):
while n> 0:
yield n
n -= 1
调用 countdown 并不会执行,如果 print 该函数,会发现返回的是 generator 实例对象。
只有通过 next()函数来执行生成器函数。yield 命令产生了一个值,然后挂起函数,直到下一个 next() 函数。当生成器函数遇到 return 或结束,停止迭代数据。除了 next,还可以使用 send 激活生成器,两者可以交替使用。比如下面生成斐波那契数列的生成器:
def myfibbo(num):
a,b=0,1
count=0
while count<num:
a,b=a+b,a
#yield b 是将b 返回给外部调用程序。
#ret = yield 可以接收外部程序通过send()发送的信息,并赋值给ret
ret = yield b
count+=1
print("step into here,count={},ret={}".format(count,:ret))
第一次当生成器处于 started 状态时,只能 send(None),否则会报错,当生成器 while 条件不满足退出时,会抛出异常 StopIteration, 如果生成器有返回值,会保存在 exception 的 value 属性中。
生成器首先是个迭代器,因此生成器可以嵌套调用子生成器。
def reader():
# 模拟从文件读取数据的生成器,for表达式可以简写为:yield from range(4)
#for i in range(4):
# yield i
yield from range(4)
def reader_wrapper():
yield from reader()
wrap = reader_wrapper()
for i in wrap:
print(i)
在这里 yield from 同时起到了一个提供了一个调用者和子生成器之间的透明的双向通道的作用: 从子生成器获取数据以及向子生成器传送数据。通过上述生成器的例子中,我们已经大体感知到协程的影子了,但还是不够直观,而且不是正在意义上的协程,只是实现的代码执行过程中的挂起,唤醒操作。我们再介绍一个真正的协程实现库 greelet, 知名的网络并发框架如 eventlet,gevent 都是基于它实现的。
greenlet
from greenlet import greenlet
def test1():
print(12)
gr2.switch()
print(34)
def test2():
print(56)
gr1.switch()
print(78)
gr1 = greenlet(test1)
gr2 = greenlet(test2)
gr1.switch()
上例中创建了两个 greenlet 协程对象,gr1 和 gr2,分别对应于函数 test1()和 test2()。从中我们可以看出,使用 switch 方法切换协程,确实比 yield, next/send 组合要直观得多,从输出结果看,greenlet 协程的运行是交叉执行的,(本质是串行的)所以它不是真正意义上的并发,因此也无法发挥 CPU 多核的优势。
创建协程对象的方法其实有两个参数 greenlet(run=None, parent=None)。参数 run 就是其要调用的方法,比如上例中的函数 test1()和 test2();参数 parent 定义了该协程对象的父协程,也就是说,greenlet 协程之间是可以有父子关系的。如果不设或设为空,则其父协程就是程序默认的”main”主协程。这个”main”协程不需要用户创建,它所对应的方法就是主程序,而所有用户创建的协程都是其子孙。大家可以把 greenlet 协程集看作一颗树,树的根节点就是”main”,上例中的 gr1 和 gr2 就是其两个字节点。
在子协程执行完毕后,会自动返回父协程。比如上例中 test1() 函数退出,代码会返回到主程序。
eventlet
eventlet 在 Greenlet 的基础上实现了自己的 GreenThread,实际上就是 greenlet 类的扩展封装,而与 Greenlet 的不同是,Eventlet 实现了自己调度器称为 Hub,Hub 类似于 Tornado 的 IOLoop,是单实例的。在 Hub 中有一个 event loop,根据不同的事件来切换到对应的 GreenThread。同时 eventlet 还实现了一系列的补丁来使 Python 标准库中的 socket 等 module 来支持 GreenThread 的切换。
eventlet 的 Hub 可以被定制来实现自己调度过程。
eventlet 使用举例:
import eventlet
from eventlet.green.urllib import request
urls = [
"http://www.baidu.com",
"http://www.tmall.com",
"http://www.tencent.com",
]
def fetch(url):
print("opening", url)
body =request.urlopen(url).read()
print("done with", url)
return url, body
pool = eventlet.GreenPool(2)
for url, body in pool.imap(fetch, urls):
print("got body from", url, "of length", len(body))
示例代码中引入 GreenPool 协程池来控制并发度。
gevent
gevent 是基于 libev(Linux 上 epoll,FreeBSD 上 kqueue)和 greenlet 实现的 Python 网络库。libev 是一个事件循环器:向 libev 注册感兴趣的事件,比如 socket 可读事件,libev 会对所注册的事件的源进行管理,并在事件发生时触发相应的程序。也就是说 libev 提供了指定文件描述符事件发生时调用回调函数的机制。而 libev 依赖的 epoll 是 Linux 内核为处理大批量文件描述符而作了改进的 poll,是 Linux 下多路复用 IO 接口 select/poll 的增强版本,它能显著提高程序在大量并发连接中只有少量活跃的情况下的系统 CPU 利用率。为了将 python 标准库改造成支持 gevent 的非阻塞库,gevent 使用了 monkey_patch(俗称“猴子补丁”)的办法对大部分标准库包括 socket、ssl、threading 和 select 等模块做了改写。所谓“猴子补丁”就是不改变源代码而对功能进行追加和变更,所以“猴子补丁”并不是 Python 中专有的,一方面它充分利用了动态语言的灵活性,可以对现有的语言 Api 进行追加,替换,修改 Bug,甚至性能优化等,另一方面也给系统维护带来了一些风险。
gevent 使用举例:
from gevent import socket
urls = ['www.baidu.com', 'www.example.com', 'www.python.org']
jobs = [gevent.spawn(socket.gethostbyname, url) for url in urls]
gevent.joinall(jobs, timeout=2)
result = [job.value for job in jobs]
print(result)
gevent.spawn()方法 spawn 一些 jobs,然后通过 gevent.joinall 将 jobs 加入到微线程执行队列中等待其完成,设置超时为 2 秒。执行后的结果通过检查 gevent.Greenlet.value 值来收集。gevent.socket.gethostbyname() 函数与标准的 socket.gethotbyname() 有相同的接口,但它不会阻塞主线程。
from gevent import monkey;monkey.patch_all()
import gevent
import requests
import time
import pymysql
from gevent.pool import Pool
def query(sql):
db = pymysql.connect(host ='rm-bp1ek8zy4654v7216zo.mysql.rds.aliyuncs.com', user = 'public_admin',passwd= 'xxxxxxyyyyy', db= 'performance_test')
cursor = db.cursor()
data = cursor.execute(sql)
cursor.close()
db.close()
if __name__ == '__main__':
p = Pool(5)
sql_list=['select * from seller_payments_report_v2 limit 10' for i in range(50)]
p.map(query,sql_list)
p.join()
示例代码中,引入了协程池来控制并发,通过 mysql 终端 show processlist;可以看到 gevent 实现了对数据库的并发查询。值得注意的是这里简单的查询没有发生阻塞,但复杂的操作比如 load file 就不一定了。感兴趣的读者可以自行验证。
异步编程框架
上面介绍的 eventlet,gevent 都是从一种同步 IO 模型的角度来实现的,这里介绍一种异步的实现方式。所谓异步 IO,是跟同步 IO 相对的,异步 IO 是计算机操作系统对输入输出的一种处理方式:发起 IO 请求的线程不等 IO 操作完成,就继续执行随后的代码,IO 结果用其他方式 (回调) 通知发起 IO 请求的程序。这样通过异步 IO,应用程序在发起 IO 请求完成之前,不必等待 IO 完成,就可以继续去干其他事情,等待操作系统完成 IO 再通知应用程序去处理。现代操作系统已经将这些 IO 状态包装成基本的事件,如可读事件,可写事件,并且提供应用程序可以接收这些事件的系统模块。比如 select 模块。在 python 中 select 模块就是 selectors,selectors 是对底层 select/poll/epoll/kqueue 的封装。DefaultSelector 类会根据 OS 环境自动选择最佳的模块,最新的 Linux 系统中基本都是基于 epoll 实现。在详细介绍 asyncio 之前,先通过一个网络爬虫的例子,从最基本的 select 模块讲起。
基于 selector 的异步实现
首先我们把要抓取的 url 地址简化为一个 host 主机地址列表:
host_to_access = {'www.baidu.com', 'www.taobao.com', 'www.tencent.com', 'www.toutiao.com', 'www.meituan.com', 'www.tmall.com'}
然后实现一个 Fetcher 类,用于跟一个 url 地址绑定,每个 url 对应一个 Fetcher,用于对 url 的连接和读取响应:
class Fetcher:
def __init__(self,host):
self.response = b'' # Empty array of bytes.
self.host = host
self.sock = None
def fetch(self):
self.sock = socket.socket()
self.sock.setblocking(False)
try:
self.sock.connect((self.host, 80))
except BlockingIOError:
pass
# Register next callback.
selector.register(self.sock.fileno(),
EVENT_WRITE,
self.connected)
def connected(self, key, mask):
selector.unregister(self.sock.fileno())
request='GET / HTTP/1.0\r\nHost: {}\r\n\r\n'.format(self.host)
print('{} connected'.format(self.host))
self.sock.send(request.encode('ascii'))
# Register the next callback.
selector.register(key.fd,
EVENT_READ,
self.read_response)
def read_response(self, key, mask):
global stopped
chunk = self.sock.recv(4096) # 4k chunk size.
if chunk:
self.response += chunk
else:
selector.unregister(key.fd) # Done reading.
host_to_access.remove(self.host)
if not host_to_access:
stopped = True
print("key:{},mask:{},read response:{}".format(key,mask,self.response))
Fetcher 使用非阻塞 socket,这样主程序就不需要等待 IO 立即返回,这一点在大量 IO 请求的场景下至关重要。为了让 IO 请求可读可写的时候应用程序能够去处理,我们注册了两个回调函数:connected 和 read_response。前者在建立连接之后,也就是当当前 IO 可写的时候调用;后者在发送请求到服务器之后,服务器有响应内容,客户端当前 IO 请求可读的时候调用。接下来的问题是,客户端同时发起若干个请求,如何知道哪些请求可读可写呢?换句话说客户端如何获取到操作系统的 IO 事件通知呢?这里就需要用到 selectors 模块中的 select 机制了:select 返回当前可读可写的事件列表,如果当前没有事件发生,当前操作将会被阻塞。明显,这里需要一种事件循环方式去轮训检测可读可写的事件,然后调用组册的回调函数,直到所有请求都处理完毕,示例中的 callback 就是应用程序事先注册的回调函数入口:
def loop():
while not stopped:
events = selector.select()
for event_key, event_mask in events:
callback = event_key.data
callback(event_key, event_mask)
最后在主程序中依次对每个 url 通过 Fetch 的 fetch 方法触发请求,之后的处理就交给事件循环和回调函数了。
if __name__ == '__main__':
for host in host_to_access:
fetcher = Fetcher(host)
fetcher.fetch()
loop()
从上面的例子中我们看到异步 IO 方式跟前文中的同步方式有一个共同点,那就是都在一个线程中并发实现多任务处理的。不同点就是再看不到“猴子补丁”的身影了,从代码安全性上似乎好了不少,但是事实并非如此:在上文中,我们通过 Fetcher 类保存了当前请求的 socket、host 和响应内容。而且这个保存当前应用程序的状态是不得不为的,因为不像同步调用程序那样,接下来要处理的步骤是确定的,异步调用的方式会在 I/O 操作完成之前返回并清除栈帧,然后在未来某个时刻继续未完之事。随着应用程序需要保存的状态逐步增多,维护应用程序的代价也越大。此其一,其二是回调函数缺少上下文,应用程序的维护者很难从问题现象中迅速查询被调用函数从哪里发起,然后又流转到哪里。特别是当回调函数嵌套调用回调函数的时候,这种“堆栈撕裂”的问题将变得更加棘手。那有没有一种更好的方式既保留着回调的优势又能避免它的问题呢?还记得前文中介绍的生成器吗?接下来我们使用生成器来重写上面爬虫的例子。
基于 generator 和 selector 的异步实现
我们在生成器部分的介绍中了解到生成器是可以保存当前状态的,这里通过示例详细展示这个功能点, 首先我们重构 Fetcher 类:
class Fetcher:
def __init__(self,host):
self.response = b'' # Empty array of bytes.
self.host = host
def fetch(self):
sock = socket.socket()
sock.setblocking(False)
try:
sock.connect((self.host, 80))
except BlockingIOError:
pass
f = Future()
def on_connected():
f.set_result(None)
print('{} connected'.format(self.host))
selector.register(sock.fileno(), EVENT_WRITE, on_connected)
yield f
selector.unregister(sock.fileno())
request='GET / HTTP/1.0\r\nHost: {}\r\n\r\n'.format(self.host)
sock.send(request.encode('ascii'))
global stopped
while True:
f = Future()
def on_readable():
try:
data=sock.recv(4096)
f.set_result(data)
except socket.error as e:
print(e)
selector.register(sock.fileno(), EVENT_READ, on_readable)
chunk = yield f
selector.unregister(sock.fileno())
print("host:{},read response:{}".format(self.host,chunk))
if chunk:
self.response += chunk
else:
print(self.host+" removed.")
host_to_access.remove(self.host)
if not host_to_access:
stopped = True
Fetcher 类与上文的实现有几点区别:
1. 不需要保存当前 socket 状态;
2. 回调函数 on_connected 和 on_readable 移到 Fetcher 类里,且不需要参数!
3. 通过引入 yield 不仅保留了回调的异步实现,而且保持了同步实现的简明逻辑。
4. 读取响应内容的完整逻辑被封装进 fetch 方法里。
5. 引入 Future 类,使得程序逻辑按照时间线向未来延伸,通过跟 yield 配合,每次 IO 请求阻塞在 Future 上,同时 fetch 由普通方法变成了一个生成器。
接下来需要解决的问题是,如何唤醒在 Future 处阻塞的请求呢?
我们定义一个 Task 任务类,来驱动整个请求,Task 和 Future 类的实现代码如下:
class Task:
def __init__(self, coro):
self.coro = coro
f = Future()
f.set_result(None)
self.step(f)
def step(self, future):
try:
# send会进入到coro执行, 即fetch, 直到下次yield
# next_future 为yield返回的对象
next_future = self.coro.send(future.result)
except StopIteration:
return
next_future.add_done_callback(self.step)
class Future:
def __init__(self):
self.result = None
self._callbacks = []
def add_done_callback(self, fn):
self._callbacks.append(fn)
def set_result(self, result):
self.result = result
for fn in self._callbacks:
fn(self)
注意 Task 的 step 方法:每次 send 唤起生成器并得到新的生成器,新的生成器绑定的 step 方法将在有事件到来时候被再次执行。循环不断,直到响应内容读取完毕:将第一次通过初始化 Task 调用 step 执行,通过 send(None)方法激活 fetch 生成器,发起 url 连接请求,当连接请求建立后,通过 on_connected 回调方法执行在 Future 中传入的 step 方法发起读请求,再次挂起,当读信号到来时候,再次触发 step 唤醒生成器,并将读取的响应内容传递给 chunk。。。这样一来,生成器和 Task 通过 Futrure 串联起来了。最后该整个流程的关键驱动器事件循环上场了:
def loop():
while not stopped:
events = selector.select()
for event_key, event_mask in events:
callback = event_key.data
callback()
if __name__ == '__main__':
import time
start = time.time()
for host in host_to_access:
fetcher = Fetcher(host)
Task(fetcher.fetch())
loop()
从上述示例中,我们看到基于生成器的异步实现,回调函数已经不需要关心是谁触发了事件,而且每个生成器代码中也不需要维护 socket 状态了,整个代码风格非常接近同步代码。是时候为实现这段连接并获取响应的代码代码段正名了 - 协程:即协作式的例程。实际上 python2.5 中也确实有基于生成器的协程实现提案:Coroutines via Enhanced Generators。协程拥有自己的帧栈,每次迭代之间,会暂停执行,继续下次迭代的时候还不会丢失先前的状态。然而美中不足的是基于 yield 实现的协程还是不够优雅,我们再次重构来看看。
基于 yield from 和 selector 的异步实现
通过前面介绍,我们已经知道 yield from 也是 Python 的语法,它可以让嵌套生成器不必通过循环迭代 yield,而是直接 yield from;此外它还打通了生成器和子生成器。直接看代码:下面将请求和读取响应的函数封装如下:
def connect(sock, address):
f = Future()
sock.setblocking(False)
try:
sock.connect(address)
except BlockingIOError:
pass
def on_connected():
f.set_result(None)
print('{} connected'.format(address))
selector.register(sock.fileno(), EVENT_WRITE, on_connected)
yield from f
selector.unregister(sock.fileno())
def read(sock):
f = Future()
def on_readable():
f.set_result(sock.recv(4096))
selector.register(sock.fileno(), EVENT_READ, on_readable)
chunk = yield from f
selector.unregister(sock.fileno())
return chunk
def read_all(sock):
response = []
chunk = yield from read(sock)
while chunk:
response.append(chunk)
chunk = yield from read(sock)
return b''.join(response)
这样 Fetcher 类的实现变得更加简洁:
class Fetcher:
def __init__(self,host):
self.response = b'' # Empty array of bytes.
self.host = host
def fetch(self):
global stopped
sock = socket.socket()
yield from connect(sock,(self.host, 80))
request='GET / HTTP/1.0\r\nHost: {}\r\n\r\n'.format(self.host)
sock.send(request.encode('ascii'))
self.response = yield from read_all(sock)
print("{} response:{}".format(self.host,self.response))
host_to_access.remove(self.host)
if not host_to_access:
stopped = True
另外值得一提的是,yield from 必须是可迭代对象,而 yield 可以是普通对象,需要需要实现 Future 的 __iter__ 方法:
def __iter__(self):
yield self
return self.result
从中我们看到用 yield from 改进基于生成器的协程,代码抽象程度更高。很多知名异步编程框架也是基于 yield from。然而本文是不是到此为止了呢?且慢,本文接下来介绍真正的主角 asyncio!
asyncio
上面我们实现的爬虫可以看着简化的 asyncio。实际上 asyncio 是 Python 3.4 试验性引入的异步 I/O 框架,提供了基于协程做异步 I/O 编写单线程并发代码的基础设施。其核心组件有事件循环(Event Loop)、协程 (Coroutine)、任务(Task)、未来对象(Future) 以及其他一些扩充和辅助性质的模块。Python3.5 中新增的 async/await 语法对协程有了明确而显式的支持,称之为原生协程。实际上 async/await 和 yield from 这两种风格的协程底层复用共同的实现,而且相互兼容。
使用 asyncio 须经过一下几个步骤:定义协程函数 ->(封装成 task->)获取事件循环 -> 将 task 放到事件循环中执行。定义好的协程并不能直接使用,需要将其包装成为了一个任务(task 对象),然后放到事件循环中才能被执行。所谓 task 对象是 Future 类的一个子类,保存了协程运行后的状态,用于未来获取协程的结果。在上面的步骤中,之所以在封装 task 这一个步骤上加上括号,是因为我们也可以选择直接将协程放到事件循环中,事件循环会自动帮我们完成这一操作。
任务创建
任务创建有多种方式,第一种方式通过 asyncio 提供的 ensure_future() 函数创建 task,如:
import asyncio
import requests
async def scan(url):
r = requests.get(url).status_code
print("{}:{}".format(url,r))
return r
task = asyncio.ensure_future(scan('http://www.baidu.com'))
loop = asyncio.get_event_loop()
loop.run_until_complete(task)
print(task.result())
第二种,直接通过事件循环的 create_task 方法创建
import asyncio
import requests
async def scan(url):
r = requests.get(url).status_code
print("{}:{}".format(url,r))
return r
loop = asyncio.get_event_loop()
task = loop.create_task(scan('http://www.baidu.com')) # 封装为task
loop.run_until_complete(task)
print(task.result())
第三种:直接将协程放到事件循环中执行。这种方法并不是说不用将协程封装为 task,而是事件循环内部会自动帮我们完成这一步骤。
import asyncio
import requests
async def scan(url):
r = requests.get(url).status_code
print("{}:{}".format(url,r))
return r
loop = asyncio.get_event_loop()
loop.run_until_complete(scan('http://www.baidu.com'))
无论是上述哪一种方法,最终都需要通过 run_until_complete 方法去执行我们定义好的协程。run_until_complete 是一个阻塞(blocking)调用,直到协程运行结束,它才返回
多协程运行
我们可以将多个协程函数加入事件循环,这时候需要借助 asyncio.gather 函数或者 asyncio.wait 函数。两个函数功能极其相似,不同的是,gather 接受的参数是多个协程,而 wait 接受的是一个协程列表。async.wait 会返回两个值:done 和 pending,done 为已完成的 task,pending 为超时未完成的 task。而 async.gather 只返回已完成 task。比如
import asyncio
import requests
async def scan(url):
r = requests.get(url).status_code
print("{}:{}".format(url,r))
return r
tasks=[asyncio.ensure_future(scan(urls[i])) for i in range(3)]
loop = asyncio.get_event_loop()
loop.run_until_complete(asyncio.wait(tasks))
for task in tasks:
print('Task Result:', task.result())
回调函数
import asyncio
import requests
import functools
urls=["http://www.baidu.com","http://www.taobao.com","http://www.toutiao.com"]
total=len(urls)
done=0
async def scan(urls):
if len(urls)>0:
url=urls.pop()
r = requests.get(url).status_code
return ("{} :{}".format(url,r))
def call_back(loop,future):
global done
done=done+1
print('回调函数,协程返回值为:{},Done:{}'.format(future.result(),done))
if done<total:
task = asyncio.ensure_future(scan(urls))
task.add_done_callback(functools.partial(call_back,loop))
else:
loop.stop()
async def main(loop):
task = asyncio.ensure_future(scan(urls))
task.add_done_callback(functools.partial(call_back,loop))
loop = asyncio.get_event_loop()
task = asyncio.ensure_future(main(loop))
loop.run_forever()
示例功能为通过回调的方式实现对 url 列表的接龙访问:创建 Task 的同时通过 task.add_done_callback 为 task 任务增加完成回调函数 call_back,在回调函数中,判断 url 是否请求完毕,如果没有请求完毕,继续新建任务,直到所有 url 请求完毕。如果增加首次创建任务的数量,则可以实现类似协程池的功能。另外我们也看到协程函数可以嵌套调用。
循环退出
从上面示例中我们有两种办法退出当前loop,run_until_complete和run_forever。前者会等待task完成后自己再退出,后者会一直运行,直到调用stop。
关于协程函数
在上面的示例中,我们只关心协程的创建和运行,但没有关注协程函数的实现注意事项:如果协程函数调用了阻塞操作,那么其他协程和主线程将被阻塞。这意味着协程函数逻辑要么使用用非阻塞功能,要么同步调用的功能时间很短,否则无法发挥协程的并发优势。比如上面的request请求url就是同步调用,无法真正实现并发。幸运的是aio库中有对应的异步实现:aiohttp。这样一来,结合asyncio和aiohttp来实现我们的爬虫将变得非常容易:
import asyncio
import aiohttp
host_to_access = {'www.baidu.com', 'www.taobao.com', 'www.tencent.com', 'www.toutiao.com', 'www.meituan.com', 'www.tmall.com'}
loop = asyncio.get_event_loop()
async def fetch(url):
async with aiohttp.ClientSession(loop=loop) as session:
async with session.get(url) as response:
response = await response.read()
print('{} response:{}'.format(url,response))
return response
if __name__ == '__main__':
tasks = [fetch('http://'+host + '/') for host in host_to_access]
loop.run_until_complete(asyncio.gather(*tasks))
这里我们对比生成器版的协程,看到使用asyncio库带来的巨大优势:
没有了yield 或 yield from,而是async/await
没有了自造的loop(),取而代之的是asyncio.get_event_loop()
无需自己在socket上做异步操作,不用显式地注册和注销事件,aiohttp库已经代劳
没有了显式的 Future 和 Task,asyncio已封装
更少量的代码,更优雅的设计
更重要的是,asyncio带来了更明显的性能提升和代码功能的完善。行文至此,相信我们已经对协程有了更深入的理解,下面我们回到文章开篇提的问题,我们看看用协程如何来解决这个问题?假设这一批小文件存放在aws s3上,这里需要一个工具类,能够遍历和下载s3上的文件到本地,然后再通过异步方式load进mysql,异步方式写mysql,我们使用aiomysql。
s3工具类
#boto3是适用于 Python 的 AWS 开发工具包
import boto3
import os
import shutil
from tempfile import mkdtemp
from contextlib import contextmanager
from tempfile import NamedTemporaryFile
class S3util:
def list_keys(bucket,key_prefix):
s3_client = boto3.client('s3', region_name='us-west-2')
list_response = s3_client.list_objects(Bucket=bucket, Prefix=key_prefix, )
keys=[content['Key'] for content in list_response['Contents']]
return keys
def download(bucket='etl.data',key):
with TemporaryDirectory(prefix='s32mysql_') as tmp_dir,\
NamedTemporaryFile(mode="wb",
dir=tmp_dir,
suffix=file_ext) as f:
fname=f.name
s3.download_file(bucket,key,fname)
return fname
@contextmanager
def TemporaryDirectory(suffix='', prefix=None, dir=None):
name = mkdtemp(suffix=suffix, prefix=prefix, dir=dir)
try:
yield name
finally:
try:
shutil.rmtree(name)
except OSError as e:
# ENOENT - no such file or directory
if e.errno != errno.ENOENT:
raise e
aiomysql
aiomysql提供了对mysql操作的异步访问接口,基本使用方法跟同步很相似:
import asyncio
import aiomysql
async def load_files():
conn = await aiomysql.connect(host="rm-bp1ek8zy4654v7216zo.mysql.rds.aliyuncs.com", port=3306,
user='admin', password='xxxyyy',
db='performance_test', charset='utf8',local_infile=True)
cursor = await conn.cursor()
await cursor.execute("LOAD DATA LOCAL INFILE '/tmp/0190000' ignore INTO TABLE bi_supplier_spu_month_detail FIELDS TERMINATED BY X'01'")
await cursor.execute("LOAD DATA LOCAL INFILE '/tmp/0190001' ignore INTO TABLE bi_supplier_spu_month_detail FIELDS TERMINATED BY X'01'")
await cursor.execute('select * from bi_supplier_spu_month_detail limit 10')
result = await cursor.fetchall()
for record in result:
print("record: ", record)
await cursor.close()
conn.close()
loop = asyncio.get_event_loop()
loop.run_until_complete(load_files())
大并发场景下,持续的创建数据库连接可能会导致连接超时、失败等问题,创建连接池是个好主义,我们为上面代码增加连接池:
async def get_pool():
'''
初始化,获取数据库连接池
'''
try:
print("aiomysql.create_pool")
pool = await aiomysql.create_pool(host='rm-bp1ek8zy4654v7216zo.mysql.rds.aliyuncs.com', port=3306,
user='public_admin', password='w3SJ605T1AYtjpCs',
db='performance_test', charset='utf8',local_infile=True)
return pool
except asyncio.CancelledError:
raise asyncio.CancelledError
except Exception as ex:
print("mysql数据库连接失败:{}".format(ex.args[0]))
return False
async def getCurosr(pool):
'''
获取db连接和cursor对象,用于db的读写操作
'''
conn = await pool.acquire()
cur = await conn.cursor()
return conn, cur
结合前文中介绍的知识铺垫,我们很容易实现上述需求:
import asyncio
import functools
import logging
loop =asyncio.get_event_loop()
s3=S3util()
list_keys=s3.list_keys()
total=len(list_keys)
complete=0
fail_list=[]
async def store(keys,table_name):
key=None
try:
key=keys.pop()
file=s3.download(key)
pool=await get_pool()
conn,cursor=await getCurosr(pool)
await cursor.execute(F"LOAD DATA LOCAL INFILE {file} ignore INTO TABLE {table_name} FIELDS TERMINATED BY X'01'")
except Exception as e:
pass
finally:
if key:
global complete
complete+=1
def call_back(loop,future,table_name):
logging.info('return result:{},progress:{}/{}'.format(future.result(),complete,total))
if len(list_obj)>0:
task = asyncio.ensure_future(store(list_keys,table_name))
task.add_done_callback(functools.partial(call_back,loop,table_name))
if complete>=total:
loop.stop()
if __name__ == '__main__':
concurrency=10
table_name='bi_supplier_spu_month_detail'
for i in range(concurrency):
task = asyncio.ensure_future(store(list_keys,table_name))
task.add_done_callback(functools.partial(call_back,loop,table_name))
我们通过在美国西部的aws服务器上拉取数据,同时load进杭州阿里云的基础版配置的数据库上测试,110M的(144个)的文件在6分钟内完成。相比其他工具,比如datax的并行插入速度有接近一倍的提升。
优质文章,推荐阅读: