如今微服务架构讨论的如火如荼。但在企业架构里除了大量的 OLTP 交易外,还存在海量的批处理交易。在诸如银行的金融机构中,每天有 3-4 万笔的批处理作业需要处理。针对 OLTP,业界有大量的开源框架、优秀的架构设计给予支撑;但批处理领域的框架确凤毛麟角。是时候和我们一起来了解下批处理的世界哪些优秀的框架和设计了,今天我将以 Spring Batch 为例,和大家一起探秘批处理的世界。
- 初识批处理典型场景
- 探秘领域模型及关键架构
- 实现作业健壮性与扩展性
- 批处理框架的不足与增强
批处理典型业务场景
对账是典型的批处理业务处理场景,各个金融机构的往来业务和跨主机系统的业务都会涉及到对账的过程,如大小额支付、银联交易、人行往来、现金管理、POS 业务、ATM 业务、证券公司资金账户、证券公司与证券结算公司。
下面是某行网银的部分日终跑批实例场景需求。
涉及到的需求点包括:
- 批量的每个单元都需要错误处理和回退;
- 每个单元在不同平台中运行;
- 需要有分支选择;
- 每个单元需要监控和获取单元处理日志;
- 提供多种触发规则,按日期,日历,周期触发;
除此之外典型的批处理适用于如下的业务场景:
- 定期提交批处理任务(日终处理)
- 并行批处理:并行处理任务
- 企业消息驱动处理
- 大规模的并行处理
- 手动或定时重启
- 按顺序处理依赖的任务 (可扩展为工作流驱动的批处理)
- 部分处理:忽略记录 (例如在回滚时)
- 完整的批处理事务
与 OLTP 类型交易不同,批处理作业两个典型特征是批量执行与自动执行(需要无人值守):前者能够处理大批量数据的导入、导出和业务逻辑计算;后者无需人工干预,能够自动化执行批量任务。
在关注其基本功能之外,还需要关注如下的几点:
- 健壮性:不会因为无效数据或错误数据导致程序崩溃;
- 可靠性:通过跟踪、监控、日志及相关的处理策略(重试、跳过、重启)实现批作业的可靠执行;
- 扩展性:通过并发或者并行技术实现应用的纵向和横向扩展,满足海量数据处理的性能需求;
苦于业界真的缺少比较好的批处理框架,Spring Batch 是业界目前为数不多的优秀批处理框架(Java 语言开发),SpringSource 和 Accenture(埃森哲)共同贡献了智慧。
Accenture 在批处理架构上有着丰富的工业级别的经验,贡献了之前专用的批处理体系框架(这些框架历经数十年研发和使用,为 Spring Batch 提供了大量的参考经验)。
SpringSource 则有着深刻的技术认知和 Spring 框架编程模型,同时借鉴了 JCL(Job Control Language) 和 COBOL 的语言特性。2013 年 JSR-352 将批处理纳入规范体系,并被包含在了 JEE7 之中。这意味着,所有的 JEE7 应用服务器都会有批处理的能力,目前第一个实现此规范的应用服务器是 Glassfish 4。当然也可以在 Java SE 中使用。
但最为关键的一点是:JSR-352 规范大量借鉴了 Spring Batch 框架的设计思路, 从上图中的核心模型和概念中可以看出究竟,核心的概念模型完全一致。完整的 JSR-252 规范可以从 https://jcp.org/aboutJava/communityprocess/final/jsr352/index.html 下载。
通过 Spring Batch 框架可以构建出轻量级的健壮的并行处理应用, 支持事务、并发、流程、监控、纵向和横向扩展, 提供统一的接口管理和任务管理。
框架提供了诸如以下的核心能力,让大家更关注在业务处理上。更是提供了如下的丰富能力:
- 明确分离批处理的执行环境和应用
- 将通用核心的服务以接口形式提供
- 提供“开箱即用” 的简单的默认的核心执行接口
- 提供 Spring 框架中配置、自定义、和扩展服务
- 所有默认实现的核心服务能够容易的被扩展与替换,不会影响基础层
- 提供一个简单的部署模式,使用 Maven 进行编译
批处理关键领域模型及关键架构
先来个 Hello World 示例,一个典型的批处理作业。
典型的一个作业分为 3 部分:作业读、作业处理、作业写,也是典型的三步式架构。整个批处理框架基本上围绕 Read、Process、Writer 来处理。除此之外,框架提供了作业调度器、作业仓库(用以存放 Job 的元数据信息,支持内存、DB 两种模式)。
完整的领域概念模型参加下图:
Job Launcher(作业调度器)是 Spring Batch 框架基础设施层提供的运行 Job 的能力。通过给定的 Job 名称和作 Job Parameters,可以通过 Job Launcher 执行 Job。
通过 Job Launcher 可以在 Java 程序中调用批处理任务,也可以在通过命令行或者其它框架(如定时调度框架 Quartz)中调用批处理任务。
Job Repository 来存储 Job 执行期的元数据(这里的元数据是指 Job Instance、Job Execution、Job Parameters、Step Execution、Execution Context 等数据),并提供两种默认实现。
一种是存放在内存中;另一种将元数据存放在数据库中。通过将元数据存放在数据库中,可以随时监控批处理 Job 的执行状态。Job 执行结果是成功还是失败,并且使得在 Job 失败的情况下重新启动 Job 成为可能。Step 表示作业中的一个完整步骤,一个 Job 可以有一个或者多个 Step 组成。
批处理框架运行期的模型也非常简单:
Job Instance(作业实例)是一个运行期的概念,Job 每执行一次都会涉及到一个 Job Instance。
Job Instance 来源可能有两种:一种是根据设置的 Job Parameters 从 Job Repository(作业仓库)中获取一个;如果根据 Job Parameters 从 Job Repository 没有获取 Job Instance,则新创建一个新的 Job Instance。
Job Execution 表示 Job 执行的句柄,一次 Job 的执行可能成功也可能失败。只有 Job 执行成功后,对应的 Job Instance 才会被完成。因此在 Job 执行失败的情况下,会有一个 Job Instance 对应多个 Job Execution 的场景发生。
总结下批处理的典型概念模型,其设计非常精简的十个概念,完整支撑了整个框架。
Job 提供的核心能力包括作业的抽象与继承,类似面向对象中的概念。对于执行异常的作业,提供重启的能力。
框架在 Job 层面,同样提供了作业编排的概念,包括顺序、条件、并行作业编排。
在一个 Job 中配置多个 Step。不同的 Step 间可以顺序执行,也可以按照不同的条件有选择的执行(条件通常使用 Step 的退出状态决定),通过 next 元素或者 decision 元素来定义跳转规则;
为了提高多个 Step 的执行效率,框架提供了 Step 并行执行的能力(使用 split 进行声明,通常该情况下需要 Step 之间没有任何的依赖关系,否则容易引起业务上的错误)。Step 包含了一个实际运行的批处理任务中的所有必需的信息,其实现可以是非常简单的业务实现,也可以是非常复杂的业务处理,Step 的复杂程度通常是业务决定的。
每个 Step 由 ItemReader、ItemProcessor、ItemWriter 组成,当然根据不同的业务需求,ItemProcessor 可以做适当的精简。同时框架提供了大量的 ItemReader、ItemWriter 的实现,提供了对 FlatFile、XML、Json、DataBase、Message 等多种数据类型的支持。
框架还为 Step 提供了重启、事务、重启次数、并发数;以及提交间隔、异常跳过、重试、完成策略等能力。基于 Step 的灵活配置,可以完成常见的业务功能需求。其中三步走(Read、Processor、Writer)是批处理中的经典抽象。
作为面向批的处理,在 Step 层提供了多次读、处理,一次提交的能力。
在 Chunk 的操作中,可以通过属性 commit-interval 设置 read 多少条记录后进行一次提交。通过设置 commit-interval 的间隔值,减少提交频次,降低资源使用率。Step 的每一次提交作为一个完整的事务存在。默认采用 Spring 提供的声明式事务管理模式,事务编排非常方便。如下是一个声明事务的示例:
框架对于事务的支持能力包括:
- Chunk 支持事务管理,通过 commit-interval 设置每次提交的记录数;
- 支持对每个 Tasklet 设置细粒度的事务配置:隔离界别、传播行为、超时;
- 支持 rollback 和 no rollback,通过 skippable-exception-classes 和 no-rollback-exception-classes 进行支撑;
- 支持 JMS Queue 的事务级别配置;
另外,在框架资深的模型抽象方面,Spring Batch 也做了极为精简的抽象。
仅仅使用六张业务表存储了所有的元数据信息(包括 Job、Step 的实例,上下文,执行器信息,为后续的监控、重启、重试、状态恢复等提供了可能)。
- BATCH_JOB_INSTANCE:作业实例表,用于存放 Job 的实例信息
- BATCH_JOB_EXECUTION_PARAMS:作业参数表,用于存放每个 Job 执行时候的参数信息,该参数实际对应 Job 实例的。
- BATCH_JOB_EXECUTION:作业执行器表,用于存放当前作业的执行信息,比如创建时间,执行开始时间,执行结束时间,执行的那个 Job 实例,执行状态等。
- BATCH_JOB_EXECUTION_CONTEXT:作业执行上下文表,用于存放作业执行器上下文的信息。
- BATCH_STEP_EXECUTION:作业步执行器表,用于存放每个 Step 执行器的信息,比如作业步开始执行时间,执行完成时间,执行状态,读写次数,跳过次数等信息。
- BATCH_STEP_EXECUTION_CONTEXT:作业步执行上下文表,用于存放每个作业步上下文的信息。
实现作业的健壮性与扩展性
批处理要求 Job 必须有较强的健壮性,通常 Job 是批量处理数据、无人值守的,这要求在 Job 执行期间能够应对各种发生的异常、错误,并对 Job 执行进行有效的跟踪。
一个健壮的 Job 通常需要具备如下的几个特性:
1. 容错性
在 Job 执行期间非致命的异常,Job 执行框架应能够进行有效的容错处理,而不是让整个 Job 执行失败;通常只有致命的、导致业务不正确的异常才可以终止 Job 的执行。
2. 可追踪性
Job 执行期间任何发生错误的地方都需要进行有效的记录,方便后期对错误点进行有效的处理。例如在 Job 执行期间任何被忽略处理的记录行需要被有效的记录下来,应用程序维护人员可以针对被忽略的记录后续做有效的处理。
3. 可重启性
Job 执行期间如果因为异常导致失败,应该能够在失败的点重新启动 Job;而不是从头开始重新执行 Job。
框架提供了支持上面所有能力的特性,包括 Skip(跳过记录处理)、Retry(重试给定的操作)、Restart(从错误点开始重新启动失败的 Job):
- Skip,在对数据处理期间,如果数据的某几条的格式不能满足要求,可以通过 Skip 跳过该行记录的处理,让 Processor 能够顺利的处理其余的记录行。
- Retry,将给定的操作进行多次重试,在某些情况下操作因为短暂的异常导致执行失败,如网络连接异常、并发处理异常等,可以通过重试的方式避免单次的失败,下次执行操作时候网络恢复正常,不再有并发的异常,这样通过重试的能力可以有效的避免这类短暂的异常。
- Restart,在 Job 执行失败后,可以通过重启功能来继续完成 Job 的执行。在重启时候,批处理框架允许在上次执行失败的点重新启动 Job,而不是从头开始执行,这样可以大幅提高 Job 执行的效率。
对于扩展性,框架提供的扩展能力包括如下的四种模式 :
- Multithreaded Step 多线程执行一个 Step;
- Parallel Step 通过多线程并行执行多个 Step;
- Remote Chunking 在远端节点上执行分布式 Chunk 操作 ;
- Partitioning Step 对数据进行分区,并分开执行 ;
我们先来看第一种的实现 Multithreaded Step:
批处理框架在 Job 执行时默认使用单个线程完成任务的执行,同时框架提供了线程池的支持(Multithreaded Step 模式),可以在 Step 执行时候进行并行处理,这里的并行是指同一个 Step 使用线程池进行执行,同一个 Step 被并行的执行。使用 tasklet 的属性 task-executor 可以非常容易的将普通的 Step 变成多线程 Step。
Multithreaded Step 的实现示例:
需要注意的是 Spring Batch 框架提供的大部分的 ItemReader、ItemWriter 等操作都是线程不安全的。
可以通过扩展的方式显现线程安全的 Step。
下面为大家展示一个扩展的实现:
需求:针对数据表的批量处理,实现线程安全的 Step,并且支持重启能力,即在执行失败点可以记录批处理的状态。
对于示例中的数据库读取组件 JdbcCursorItemReader,在设计数据库表时,在表中增加一个字段 Flag,用于标识当前的记录是否已经读取并处理成功,如果处理成功则标识 Flag=true,等下次重新读取的时候,对于已经成功读取且处理成功的记录直接跳过处理。
Multithreaded Step(多线程步)提供了多个线程执行一个 Step 的能力,但这种场景在实际的业务中使用的并不是非常多。
更多的业务场景是 Job 中不同的 Step 没有明确的先后顺序,可以在执行期并行的执行。
Parallel Step:提供单个节点横向扩展的能力
使用场景:Step A、Step B 两个作业步由不同的线程执行,两者均执行完毕后,Step C 才会被执行。
框架提供了并行 Step 的能力。可以通过 Split 元素来定义并行的作业流,并制定使用的线程池。
Parallel Step 模式的执行效果如下:
每个作业步并行处理不同的记录,示例中三个作业步,处理同一张表中的不同数据。
并行 Step 提供了在一个节点上横向处理,但随着作业处理量的增加,有可能一台节点无法满足 Job 的处理,此时我们可以采用远程 Step 的方式将多个机器节点组合起来完成一个 Job 的处理。
Remote Chunking:远程 Step 技术本质上是将对 Item 读、写的处理逻辑进行分离;通常情况下读的逻辑放在一个节点进行操作,将写操作分发到另外的节点执行。
远程分块是一个把 step 进行技术分割的工作,不需要对处理数据的结构有明确了解。
任何输入源能够使用单进程读取并在动态分割后作为"块"发送给远程的工作进程。
远程进程实现了监听者模式,反馈请求、处理数据最终将处理结果异步返回。请求和返回之间的传输会被确保在发送者和单个消费者之间。
在 Master 节点,作业步负责读取数据,并将读取的数据通过远程技术发送到指定的远端节点上,进行处理,处理完毕后 Master 负责回收 Remote 端执行的情况。
在 Spring Batch 框架中通过两个核心的接口来完成远程 Step 的任务,分别是 ChunkProvider 与 ChunkProcessor。
ChunkProvider:根据给定的 ItemReader 操作产生批量的 Chunk 操作;
ChunkProcessor:负责获取 ChunkProvider 产生的 Chunk 操作,执行具体的写逻辑;
Spring Batch 中对远程 Step 没有默认的实现,但我们可以借助 SI 或者 AMQP 实现来实现远程通讯能力。
基于 SI 实现 Remote Chunking 模式的示例:
Step 本地节点负责读取数据,并通过 MessagingGateway 将请求发送到远程 Step 上;远程 Step 提供了队列的监听器,当请求队列中有消息时候获取请求信息并交给 ChunkHander 负责处理。
接下来我们看下最后一种分区模式;Partitioning Step:分区模式需要对数据的结构有一定的了解,如主键的范围、待处理的文件的名字等。
这种模式的优点在于分区中每一个元素的处理器都能够像一个普通 Spring Batch 任务的单步一样运行,也不必去实现任何特殊的或是新的模式,来让他们能够更容易配置与测试。
通过分区可以实现以下的优点:
- 分区实现了更细粒度的扩展;
- 基于分区可以实现高性能的数据切分;
- 分区比远程通常具有更高的扩展性;
- 分区后的处理逻辑,支持本地与远程两种模式;
- 分区作业典型的可以分成两个处理阶段,数据分区、分区处理;
数据分区:根据特殊的规则(例如:根据文件名称,数据的唯一性标识,或者哈希算法)将数据进行合理的数据切片,为不同的切片生成数据执行上下文 Execution Context、作业步执行器 Step Execution。可以通过接口 Partitioner 生成自定义的分区逻辑,Spring Batch 批处理框架默认实现了对多文件的实现 org.springframework.batch.core.partition.support.MultiResourcePartitioner;也可以自行扩展接口 Partitioner 来实现自定义的分区逻辑。
分区处理:通过数据分区后,不同的数据已经被分配到不同的作业步执行器中,接下来需要交给分区处理器进行作业,分区处理器可以本地执行也可以远程执行被划分的作业。接口 PartitionHandler 定义了分区处理的逻辑,Spring Batch 批处理框架默认实现了本地多线程的分区处理 org.springframework.batch.core.partition.support.TaskExecutorPartitionHandler;也可以自行扩展接口 PartitionHandler 来实现自定义的分区处理逻辑。
Spring Batch 框架提供了对文件分区的支持,实现类 org.springframework.batch.core.partition.support.MultiResourcePartitioner 提供了对文件分区的默认支持,根据文件名将不同的文件处理进行分区,提升处理的速度和效率,适合有大量小文件需要处理的场景。
示例展示了将不同文件分配到不同的作业步中,使用 MultiResourcePartitioner 进行分区,意味着每个文件会被分配到一个不同的分区中。如果有其它的分区规则,可以通过实现接口 Partitioner 来进行自定义的扩展。有兴趣的 TX,可以自己实现基于数据库的分区能力哦。
总结一下,批处理框架在扩展性上提供了 4 中不同能力,每种都是各自的使用场景,我们可以根据实际的业务需要进行选择。
批处理框架的不足与增强
Spring Batch 批处理框架虽然提供了 4 种不同的监控方式,但从目前的使用情况来看,都不是非常的友好。
- 通过 DB 直接查看,对于管理人员来讲,真的不忍直视;
- 通过 API 实现自定义的查询,这是程序员的天堂,确实运维人员的地狱;
- 提供了 Web 控制台,进行 Job 的监控和操作,目前提供的功能太裸露,无法直接用于生产;
- 提供 JMX 查询方式,对于非开发人员太不友好;
但在企业级应用中面对批量数据处理,仅仅提供批处理框架仅能满足批处理作业的快速开发、执行能力。
企业需要统一的批处理平台来处理复杂的企业批处理应用,批处理平台需要解决作业的统一调度、批处理作业的集中管理和管控、批处理作业的统一监控等能力。
那完美的解决方案是什么呢?
企业级批处理平台需要在 Spring Batch 批处理框架的基础上,集成调度框架,通过调度框架可以将任务按照企业的需求进行任务的定期执行;
丰富目前 Spring Batch Admin(Spring Batch 的管理监控平台,目前能力比较薄弱)框架,提供对 Job 的统一管理功能,增强 Job 作业的监控、预警等能力;
通过与企业的组织机构、权限管理、认证系统进行合理的集成,增强平台对 Job 作业的权限控制、安全管理能力。
由于时间关系,今天的分享就到这里,很多内容未能展开讨论。欢迎大家在实际业务中使用 Spring Batch 框架。
作者介绍
刘相,来自普元,十年 IT 行业经验,专注于企业软件平台。在 SOA、分布式计算、企业架构设计等领域有一定了解。著有《SpringBatch 批处理框架》一书。
感谢郭蕾对本文的审校。
给InfoQ 中文站投稿或者参与内容翻译工作,请邮件至 editors@cn.infoq.com 。也欢迎大家通过新浪微博( @InfoQ , @丁晓昀),微信(微信号: InfoQChina )关注我们。
评论