《Netty 进阶之路》、《分布式服务框架原理与实践》作者李林锋深入剖析通信层和 RPC 调用的异步化。李林锋此后还将在 InfoQ 上开设 Netty 专题持续出稿,感兴趣的同学可以持续关注。
1. 异步的一些常见误区
1.1.常见的理解误区
在将近 10 年的平台中间件研发历程中,我们的平台和业务经历了从 C++到 Java,从同步的 BIO 到非阻塞的 NIO,以及纯异步的事件驱动 I/O(AIO)。服务器也从 Web 容器逐步迁移到了内部更轻量、更高性能的微容器。服务之间的 RPC 调用从最初的同步阻塞式调用逐步升级到了全栈异步非阻塞调用。
每次的技术演进都会涉及到大量底层平台技术以及上层编程模型的切换,在实际工作中,我发现很多同学对通信框架的异步和 RPC 调用的异步理解有误,比较典型的错误理解包括:
1.我使用的是 Tomcat8,因为 Tomcat8 支持 NIO,所以我基于 Tomcat 开发的 HTTP 调用都是异步的。
2.因为我们的 RPC 框架底层使用的是 Netty、Vert.X 等异步框架,所以我们的 RPC 调用天生就是异步的。
3.因为我们底层的通信框架不支持异步,所以 RPC 调用也无法异步化。
1.2.混淆 Tomcat NIO 与 HTTP 服务的异步化
1.2.1. Tomcat 的 BIO 和 NIO
在 Tomcat6.X 版本对 NIO 提供比较完善的支持之前,作为 Web 服务器,Tomcat 以 BIO 的方式接收并处理客户端的 HTTP 请求,当并发访问量比较大时,就容易发生拥塞等性能问题,它的工作原理示意如下所示:
图 1 采用 BIO 做 HTTP 服务器的 Web 容器
传统同步阻塞通信(BIO)面临的主要问题如下:
1.性能问题:一连接一线程模型导致服务端的并发接入数和系统吞吐量受到极大限制。
2.可靠性问题:由于 I/O 操作采用同步阻塞模式,当网络拥塞或者通信对端处理缓慢会导致 I/O 线程被挂住,阻塞时间无法预测。
3.可维护性问题:I/O 线程数无法有效控制、资源无法有效共享(多线程并发问题),系统可维护性差。
从上图我们可以看出,每当有一个新的客户端接入,服务端就需要创建一个新的线程(或者重用线程池中的可用线程),每个客户端链路对应一个线程。当客户端处理缓慢或者网络有拥塞时,服务端的链路线程就会被同步阻塞,也就是说所有的 I/O 操作都可能被挂住,这会导致线程利用率非常低,同时随着客户端接入数的不断增加,服务端的 I/O 线程不断膨胀,直到无法创建新的线程。
同步阻塞 I/O 导致的问题无法在业务层规避,必须改变 I/O 模型,才能从根本上解决这个问题。
Tomcat 6.X 提供了对 NIO 的支持,通过指定 Connector 的 protocol=“org.apache.coyote.http11.Http11NioProtocol”,就可以开启 NIO 模式,采用 NIO 之后,利用 Selector 的轮询以及 I/O 操作的非阻塞特性,可以实现使用更少的 I/O 线程处理更多的客户端连接,提升吞吐量和主机的资源利用率。Tomcat 8.X 之后提供了对 NIO2.0 的支持,默认也开启了 NIO 通信模式。
1.2.2. Tomcat NIO 与 Servlet 异步
事实上,Tomcat 支持 NIO,与 Tomcat 的 HTTP 服务是否是异步的,没有必然关系,这个可以从两个层面理解:
1.HTTP 消息的读写:即便采用了 NIO,HTTP 请求和响应的消息处理仍然可能是同步阻塞的,这与协议栈的具体策略有关系。从 Tomcat 官方文档可以看到,Tomcat 6.X 版本即便采用 Http11NioProtocol,HTTP 请求消息和响应消息的读写仍然是 Blocking 的。
2.HTTP 请求和响应的生命周期管理:本质上就是 Servlet 是否支持异步,如果 Servlet 是 3.X 之前的版本,则 HTTP 协议的处理仍然是同步的,这就意味着 Tomcat 的 Connector 线程需要同时处理 HTTP 请求消息、执行 Servlet Filter、以及业务逻辑,然后将业务构造的 HTTP 响应消息发送给客户端,整个 HTTP 消息的生命周期都采用了同步处理方式。
Tomcat 与 Servlet 的版本配套关系如下所示:
表 1 Tomcat 与 Servlet 的版本配套关系
1.2.3. Tomcat NIO 与 HTTP 服务调用
以 Tomcat 6.X 版本为例,Tomcat HTTP 协议消息和后续的业务逻辑处理如下所示(Tomcat HTTP 协议处理非常复杂,为了便于理解,图示做了简化):
图 2 Tomcat 6.X 的 HTTP 消息接入和处理原理
从上图可以看出,HTTP 请求消息的读取、Servlet Filter 的执行、业务 Servlet 的逻辑处理,以及 HTTP 响应都是由 Tomcat 的 NIO 线程(Processor,实际更复杂些,这里做了简化处理)做处理,即 HTTP 消息的处理周期中都是串行同步执行的,尽管 Tomcat 使用 NIO 做接入,HTTP 服务端的处理仍然是同步的。它的弊端很明显,如果 Servlet 中的业务逻辑处理比较复杂,则会导致 Tomcat 的 NIO 线程被阻塞,无法读取其它 HTTP 客户端发送的 HTTP 请求消息,导致客户端读响应超时。
可能有读者会有疑问,途中标识处,为什么不能创建一个业务线程池,由业务线程池异步处理业务逻辑,处理完成之后再填充 HttpServletResponse,发送响应。实际上在 Servlet 支持异步之前是无法实现的,原因是每个响应对象只有在 Servlet 的 service 方法或 Filter 的 doFilter 方法范围内有效,该方法一旦调用完成,Tomcat 就认为本次 HTTP 消息处理完成,它会回收 HttpServletRequest 和 HttpServletResponse 对象再利用,如果业务异步化之后再处理 HttpServletResponse,拿到的实际就不是之前请求消息对应的响应,会发生各种非预期问题,因此,业务逻辑必须在 service 方法结束前执行,无法做异步化处理。
如果使用的是支持 Servlet3.0+版本的 Tomcat,通过开启异步处理模式,就能解决同步调用面临的各种问题,在后续章节中会有详细介绍。
1.2.4. 总结
通过以上分析我们可以看出,除了将 Tomcat 的 Connector 配置成 NIO 模式之外,还需要 Tomcat 配套的 Servlet 版本支持异步化(3.0+),同时还需要在业务 Servlet 的代码中开启异步模式,HTTP 服务端才能够实现真正的异步化:I/O 异步以及业务逻辑处理的异步化。
1.3.混淆 RPC 异步与 I/O 异步
1.3.1. Java 的各种 I/O 模型
很多人喜欢将 JDK 1.4 提供的 NIO 框架称为异步非阻塞 I/O,但是,如果严格按照 UNIX 网络编程模型和 JDK 的实现进行区分,实际上它只能被称为非阻塞 I/O,不能叫异步非阻塞 I/O。在早期的 JDK 1.4 和 1.5 update10 版本之前,JDK 的 Selector 基于 select/poll 模型实现,它是基于 I/O 复用技术的非阻塞 I/O,不是异步 I/O。在 JDK 1.5 update10 和 Linux core2.6 以上版本,Sun 优化了 Selctor 的实现,它在底层使用 epoll 替换了 select/poll,上层的 API 并没有变化,可以认为是 JDK NIO 的一次性能优化,但是它仍旧没有改变 I/O 的模型。相关优化的官方说明如下图所示:
图 3 JDK1.5_update10 支持 epoll
由 JDK1.7 提供的 NIO 2.0 新增了异步的套接字通道,它是真正的异步 I/O,在异步 I/O 操作的时候可以传递信号变量,当操作完成之后会回调相关的方法,异步 I/O 也被称为 AIO。NIO 类库支持非阻塞读和写操作,相比于之前的同步阻塞读和写,它是异步的,因此很多人仍然习惯于称 NIO 为异步非阻塞 I/O,在此不需要太咬文嚼字。
不同的 I/O 模型由于线程模型、API 等差别很大,所以用法的差异也非常大。各种 I/O 模型的优缺点对比如下:
表 2 Java 各种 I/O 模型优缺点对比
1.3.2. RPC 工作原理
RPC 的全称是 Remote Procedure Call,它是一种进程间通信方式。允许像调用本地服务一样调用远程服务,它的具体实现方式可以不同,例如 Spring 的 HTTP Invoker,Facebook 的 Thrift 二进制私有协议通信。
RPC 框架的目标就是让远程过程(服务)调用更加简单、透明,RPC 框架负责屏蔽底层的传输方式(TCP 或者 UDP)、序列化方式(XML/Json/二进制)和通信细节。框架使用者只需要了解谁在什么位置提供了什么样的远程服务接口即可,开发者不需要关心底层通信细节和调用过程。
RPC 框架的调用原理图如下所示:
图 4 RPC 框架原理图
RPC 框架实现的几个核心技术点总结如下:
1.远程服务提供者需要以某种形式提供服务调用相关的信息,包括但不限于服务接口定义、数据结构,或者中间态的服务定义文件,例如 Thrift 的 IDL 文件,WS-RPC 的 WSDL 文件定义,甚至也可以是服务端的接口说明文档;服务调用者需要通过一定的途径获取远程服务调用相关信息,例如服务端接口定义 Jar 包导入,获取服务端 IDL 文件等。
2.远程代理对象:服务调用者调用的服务实际是远程服务的本地代理,对于 Java 语言,它的实现就是 JDK 的动态代理,通过动态代理的拦截机制,将本地调用封装成远程服务调用。
3.通信:RPC 框架与具体的协议无关,例如 Spring 的远程调用支持 HTTP Invoke、RMI Invoke,MessagePack 使用的是私有的二进制压缩协议。
4.序列化:远程通信,需要将对象转换成二进制码流进行网络传输,不同的序列化框架,支持的数据类型、数据包大小、异常类型以及性能等都不同。不同的 RPC 框架应用场景不同,因此技术选择也会存在很大差异。一些做的比较好的 RPC 框架,可以支持多种序列化方式,有的甚至支持用户自定义序列化框架(Hadoop Avro)。
1.3.3. RPC 异步与 I/O 的异步
RPC 异步与 I/O 的异步没有必然关系,当然,在大多数场景下,RPC 框架底层会使用异步 I/O,实现全栈异步。
RPC 框架异步调度模型如下所示:
图 5 异步 RPC 调用原理
异步 RPC 调用的关键点有 2 个:
1.不能阻塞调用方线程:接口调用通常会返回 Future 或者 Promise 对象,代表异步操作的一个回调对象,当异步操作完成之后,由 I/O 线程回调业务注册的 Listener,继续执行业务逻辑。
2.请求和响应的上下文关联:除了 HTTP/1.X 协议,大部分二进制协议的 TCP 链路都是多路复用的,请求和响应消息的发送和接收顺序是无序的。所以,异步 RPC 调用需要缓存请求和响应的上下文关联关系,以及响应需要使用到的消息上下文。
正如上图所示,当 RPC 调用请求消息发送到 I/O 线程的消息队列之后,业务线程就可以返回,至于 I/O 线程采用同步还是异步的方式读写消息,与 RPC 调用的同步和异步没必然的关联关系,当然,采用异步 I/O,整体性能和可靠性会更好一些,所以现在大部分的 RPC 框架底层采用的都是异步/非阻塞 I/O。以 Netty 为例,无论 RPC 调用是同步还是异步,只要调用消息发送接口,Netty 都会将发送请求封装成 Task,加入到 I/O 线程的消息队列中统一处理,相关代码如下所示:
异步回调的一些实现策略:
1.Future/Promise:比较常用的有 JDK8 之前的 Future,通过添加 Listener 来做异步回调,JDK8 之后通常使用 CompletableFuture,它支持各种复杂的异步处理策略,例如自定义线程池、多个异步操作的编排、有返回值和无返回值异步、多个异步操作的级联操作等。
2.线程池+RxJava:最经典的实现就是 Netflix 开源的 Hystrix 框架,使用 HystrixCommand(创建线程池)做一层异步封装,将同步调用封装成异步调用,利用 RxJava API,通过订阅的方式对结果做异步处理,它的工作原理如下所示:
图 6 利用 Hystix 做异步化封装
1.3.4. 总结
通过以上分析可以得出如下结论:
1.RPC 异步指的是业务线程发起 RPC 调用之后,不用同步等待服务端返回应答,而是立即返回,当接收到响应之后,回调执行业务的后续逻辑。
2.I/O 的异步是通信层的具体实现策略,使用异步 I/O 会带来性能和可靠性提升,但是与 RPC 调用是同步还是异步没必然关系。
2. RPC 同步与异步调用
很多 RPC 框架同时支持同步和异步调用,下面对同步和异步 RPC 调用的工作原理以及优缺点进行分析。
2.1.同步 RPC 调用
2.1.1. 同步 RPC 调用流行的原因
在传统的单体架构中,以 Spring + Struts + MyBatis + Tomcat 为例,业务逻辑通常由各种 Controller(Spring Bean)来实现,它的逻辑架构如下所示:
图 7 基于 MVC 的传统单体架构
在单体架构中,本地方法调用都是同步方式,而且定义形式往往都是如下形式(请求参数 + 方法返回值):
String sayHello(String hello);
切换到 RPC 框架之后,很多都支持通过 XML 引用或者代码注解的方式引用远端的 RPC 服务,可以像使用本地接口一样调用远程的服务,这种开发模式与传统单体应用开发模式相似,编程简单,学习和切换成本低,调试也比较方便,因此,同步 RPC 调用成为大部分项目的首选。
以 XML 方式导入远端服务提供者的 API 接口示例如下:
导入之后业务就可以直接在代码中调用 echoService 接口,与传统单体应用调用本地 Spring Bean 一样,无需感知远端服务接口的具体部署位置信息。
2.1.2. 同步 RPC 调用工作原理
同步 RPC 调用是最常用的一种服务调用方式,它的工作原理如下:客户端发起远程 RPC 调用请求,用户线程完成消息序列化之后,将消息投递到通信框架,然后同步阻塞,等待通信线程发送请求并接收到应答之后,唤醒同步等待的用户线程,用户线程获取到应答之后返回。它的工作原理图如下所示:
它的工作原理图如下所示:
图 8 同步 RPC 调用
主要流程如下:
1.消费者调用服务端发布的接口,接口调用由 RPC 框架包装成动态代理,发起远程 RPC 调用。
2.消费者线程调用通信框架的消息发送接口之后,直接或者间接调用 wait()方法,同步阻塞等待应答。
3.通信框架的 I/O 线程通过网络将请求消息发送给服务端。
4.服务端返回应答消息给消费者,由通信框架负责应答消息的反序列化。
5.I/O 线程获取到应答消息之后,根据消息上下文找到之前同步阻塞的业务线程,notify()阻塞的业务线程,返回应答给消费者,完成 RPC 调用。
2.1.3. 同步 RPC 调用面临的挑战
同步 RPC 调用的主要缺点如下:
1.线程利用率低:线程资源是系统中非常重要的资源,在一个进程中线程总数是有限制的,提升线程使用率就能够有效提升系统的吞吐量,在同步 RPC 调用中,如果服务端没有返回响应,客户端业务线程就会一直阻塞,无法处理其它业务消息。
2.纠结的超时时间:RPC 调用的超时时间配置是个比较棘手的问题。如果配置的过大,一旦服务端返回响应慢,就容易把客户端挂死。如果配置的过小,则超时失败率会增加。即便参考测试环境的平均和最大时延来设置,由于生产环境数据、硬件等与测试环境的差异,也很难一次设置的比较合理。另外,考虑到客户端流量的变化、服务端依赖的数据库、缓存、第三方系统等的性能波动,这都会导致服务调用时延发生变化,因此,依靠超时时间来保障系统的可靠性,难度很大。
3.雪崩效应:在一个同步调用链中,只要下游某个服务返回响应慢,会导致故障沿着调用链向上游蔓延,最终把整个系统都拖垮,引起雪崩,示例如下:
图 9 同步 RPC 调用级联故障
2.2.异步 RPC 调用
2.2.1. 异步 RPC 调用工作原理
JDK 原生的 Future 主要用于异步操作,它代表了异步操作的执行结果,用户可以通过调用它的 get 方法获取结果。如果当前操作没有执行完,get 操作将阻塞调用线程。在实际项目中,往往会扩展 JDK 的 Future,提供 Future-Listener 机制,它支持主动获取和被动异步回调通知两种模式,适用于不同的业务场景。
基于 JDK 的 Future-Listener 机制,可以实现异步 RPC 调用,它的工作原理如下所示:
图 10 异步 RPC 调用原理图
异步 RPC 调用的工作流程如下:
1.消费者调用 RPC 服务端发布的接口,接口调用由 RPC 框架包装成动态代理,发起远程 RPC 调用。
2.通信框架异步发送请求消息,如果没有发生 I/O 异常,返回。
3.请求消息发送成功后,I/O 线程构造 Future 对象,设置到 RPC 上下文中。
4.用户线程通过 RPC 上下文获取 Future 对象。
5.构造 Listener 对象,将其添加到 Future 中,用于服务端应答异步回调通知。
6.用户线程返回,不阻塞等待应答。
7.服务端返回应答消息,通信框架负责反序列化等。
8.I/O 线程将应答设置到 Future 对象的操作结果中。
9.Future 对象扫描注册的监听器列表,循环调用监听器的 operationComplete 方法,将结果通知给监听器,监听器获取到结果之后,继续后续业务逻辑的执行,异步 RPC 调用结束。
2.2.2. 异步 RPC 调用编程模型的优化
Java8 的 CompletableFuture 提供了非常丰富的异步功能,它可以帮助用户简化异步编程的复杂性,通过 Lambda 表达式可以方便的编写异步回调逻辑,除了普通的异步回调接口,它还提供了多个异步操作结果转换以及与或等条件表达式的编排能力,方便对多个异步操作结果进行逻辑编排。
CompletableFuture 提供了大约 20 类比较实用的异步 API,接口定义示例如下:
图 11 CompletableFuture 异步 API 定义
利用 JDK 的 CompletableFuture 与 Netty 的 NIO,可以非常方便的实现异步 RPC 调用,设计思路如下所示:
图 12 异步 RPC 调用设计原理
异步 RPC 调用的工作流程如下:
1.消费者通过 RPC 框架调用服务端。
2.Netty 异步发送 HTTP 请求消息,如果没有发生 I/O 异常就正常返回。
3.HTTP 请求消息发送成功后,I/O 线程构造 CompletableFuture 对象,设置到 RPC 上下文中。
4.用户线程通过 RPC 上下文获取 CompletableFuture 对象。
5.不阻塞用户线程,立即返回 CompletableFuture 对象。
6.通过 CompletableFuture 编写 Function 函数,在 Lambda 表达式中实现异步回调逻辑。
7.服务端返回 HTTP 响应,Netty 负责反序列化工作。
8.Netty I/O 线程通过调用 CompletableFuture 的 complete 方法将应答设置到 CompletableFuture 对象的操作结果中。
9.CompletableFuture 通过 whenCompleteAsync 等接口异步执行业务回调逻辑,实现 RPC 调用的异步化。
2.2.3. 异步 RPC 调用的优势
异步 RPC 调用相比于同步调用有两个优点:
1.化串行为并行,提升 RPC 调用效率,减少业务线程阻塞时间。
2.化同步为异步,避免业务线程阻塞。
假如一次阅读首页访问需要调用多个服务接口,采用同步调用方式,它的调用流程如下所示:
图 13 同步调用多个服务场景
由于每次 RPC 调用都是同步阻塞,三次调用总耗时为 T = T1 + T2 + T3。下面看下采用异步 RPC 调用之后的优化效果:
图 14 异步多服务调用场景
采用异步 RPC 调用模式,最后调用三个异步操作结果 Future 的 get 方法同步等待应答,它的总执行时间 T = Max(T1, T2,T3),相比于同步 RPC 调用,性能提升效果非常明显。
2.3.总结
2.3.1. 异步 RPC 调用性能未必会更高
通常在实验室环境中测试,由于网络时延小、模拟业务又通常比较简单,所以异步 RPC 调用并不一定性能更高,但在生产环境中,异步 RPC 调用往往性能更高、可靠性也更好。主要原因是网络环境相对恶劣、真实的 RPC 调用耗时更多等,这种恶劣的运行环境正好可以发挥异步 RPC 调用的优势。
2.3.2. 最佳实践
服务框架支持多种 RPC 调用方式,在实际项目中如何选择呢?建议从以下几个角度进行考虑:
1.降低业务 E2E 时延:业务调用链是否太长、某些服务是否不太可靠,需要对服务调用流程进行梳理,看是否可以通过异步并行 RPC 调用来提升调用效率,降低 RPC 调用时延。
2.可靠性角度:某些业务调用链上的关键服务不太可靠,一旦出故障会导致大量线程资源被挂住,可以考虑使用异步 RPC 调用防止故障扩散。
3.传统的 RPC 调用:服务调用比较简单,对时延要求不高的场景,则可以考虑同步 RPC 调用,降低编程复杂度,以及调试难度,提升开发效率。
3. 作者简介
李林锋,10 年 Java NIO、平台中间件设计和开发经验,精通 Netty、Mina、分布式服务框架、API Gateway、PaaS 等,《Netty 进阶之路》、《分布式服务框架原理与实践》作者。目前在华为终端应用市场负责业务微服务化、云化、全球化等相关设计和开发工作。
联系方式:新浪微博 Nettying 微信:Nettying
Email:neu_lilinfeng@sina.com
评论 3 条评论