QCon北京「鸿蒙专场」火热来袭!即刻报名,与创新同行~ 了解详情
写点什么

基于日志的回放对比系统设计

  • 2020-09-22
  • 本文字数:4406 字

    阅读完需:约 14 分钟

基于日志的回放对比系统设计

一、背景

上半年公司的网关系统进行了重构,需要把零售业务已有的网关接口迁移到新网关上。这些接口每天都有成千上万次请求,为商家提供各种服务,稍有不慎就容易出现较大故障,所以如何迁移是个比较慎重的问题。


这个迁移项目主要的验证重点是:确保新网关对于接口的请求和返回的处理和老网关一致;而主要的验证难点在于,仅从功能层面进行手工验证很难覆盖各种场景,尤其是如何构造各种请求参数以及检查各种返回的内容。若要人肉进行细致的接口级别的验证,那么花费的时间就会很长、效率很低。


经过统计和梳理,涉及的接口超过了 1000 个,在这个数量级上,总花费的时间成本很高,研发团队难以承受。这不得不让我们停下来思考一下,是否有另一种高效的方式来解决这个问题。这时就想到了采用录制回放对比的方式。


随着业务的快速发展,回归时需要考虑的场景越来越多,测试的耗时越来越长,越来越多的公司提出并采用录制回放的方式来提高效率,比如阿里开源的 jvm-sandbox-repeater,基于已有的流量进行录制,无需人肉准备脚本和数据,通过将录制的流量进行回放,还原真实的场景,最后提供回放结果判断是否符合预期,提高业务回归效率。


从场景上来说,网关迁移验证做的也是回归测试,这个思路也是通用的,所以设计了一个类似的系统进行回放对比验证。

二、系统设计

如果需要采用录制回放对比的方式,首先第一步就是录制,在录制前需要确认下数据和流量的来源。数据越丰富、多样性越强,回放能够发现的问题越多,一些实时的流量采集方式通过拦截转发的方式获取数据,所以需要一定的配置和改造成本。幸运的是网关的日志对于接口的请求参数会进行记录,实际上已经完成了录制这个过程,可以采用成本最小的方式:通过拉取测试环境老网关的日志来获取请求数据,然后进行解析再进行回放和对比。


基本流程如下,下面会对各步骤的逻辑进行说明


2.1 日志拉取和清洗

作为整个流程的第一步:通过拉取日志获得需要回放的流量。


回放对实时性要求不高,但是当初请求的时刻和回放的时刻之间的时间差也不能太长:比如早上创建一个商品并进行了查询操作,下午可能进行了删除,如果选择晚上再进行回放的话,查询结果就会为空,数据的质量就会下降,造成数据损耗。需要考虑设置一个较短的时间间隔进行回放,目前通过定时任务每隔一小时启动一次进行拉取和回放,根据当前启动时间自动生成对应的时间范围,去日志平台获取日志:比如任务启动时间是 11:10 分,那么自动转换成 10:00-11:00 的时间范围去拉取日志进行回放。


获得日志后,第二步就是日志清洗。


日志清洗的作用有两个:


  1. 过滤。有一些接口是不需要迁移到新网关的,进行过滤,减少对最后统计结果的干扰。另外,录制回放运行时也会请求网关,需要过滤掉这部分人工流量。

  2. 采样。虽然是测试环境,一天的数据量也有 10W+ ,全部处理时耗较长;同时,初期会有大量重复问题爆出,增大排查成本。根据二八定律以及实际的观察,小部分接口贡献了大部分流量,考虑每个接口雨露均沾和数据的多样性,选择接口+场景作为采样纬度,返回结果中的不同 code 认为是不同的场景,这样除了正常请求,也考虑到异常请求的回放。



初期可以设置一个较小的采样阈值 Limit 来收集问题,减少人工排查问题的成本。等问题修复稳定运行一段时间后,再考虑逐步增大阈值。

2.2 进行回放

考虑到数据是不断变化的,同时对于登陆态生命周期是否正常也需要进行观察,所以回放并不是拿新网关请求的返回和日志中记录的老网关进行对比,而是同时请求两个网关,再对各自的返回进行比较。在请求过程中,可能遇到接口超时等情况,遵循尽可能成功的原则,做对应的处理,比如超时进行重试等。


另一个影响比对效率的因素就是性能,每一个请求都可以独立处理,就意味着可以并发执行,如 python 的 multiprocessing 多进程的方法:


    p = multiprocessing.Pool(8)    while line:        p.apply_async(process_line,                      args=(...))        line = file.readline()    p.close()    p.join()
复制代码


在 6C 的机器上对 2000 条日志进行回放,通过不同的并发数观察结果如下:


pool(1) 耗时:1292spool(6) 耗时:212spool(8) 耗时:155spool(12) :耗时:102s
复制代码


发现性能提升还是很明显的,根据实际运行机器的 CPU 性能配置适合的并发数即可。

2.3 结果比较

整个系统中最核心的逻辑就是结果对比逻辑了。从新网关获取到的返回 response1 和老网关获取到的返回 response2 ,理论上是要一致的。初步的比较逻辑就是采用递归比较,将返回对象中的每个元素进行比较,判断内容是否一致。


实际的运行过程中,往往会出现各种正常情况下返回结果不一致的情况:


  1. 接口请求返回含有时间字段,而时间字段是根据当前处理时间生成的。

  2. 一些写接口返回的是新生成的对象 id ,每次请求返回都不同。比如创建一个商品,下了一笔订单,返回的都是新生成的商品 id 或者订单号。

  3. 返回数据列表时,有些场景返回的数据是不保证顺序的,导致偶尔的比对失败。


针对上述情况,设计了兼容模式进行特殊处理。首先定义一个 dict 存储接口名以及需要忽略的字段


ignore_dict = {    'youzan.retail.stock.receiving.order.export.1.0.0': ['response'],    'youzan.retail.trademanager.refundorder.export.1.0.0': ['response'],    'youzan.retail.trade.api.service.pay.qrcode.1.0.1': ['url'],    'youzan.retail.product.spu.queryone.1.0.0': ['list']}
复制代码


其中定义两个特殊字段 response 和 list:


  1. 对于 response 字段,只检查字段长度和类型,不检查内容是否一致,主要针对返回序列号、订单号的场景

  2. 对于 list 字段,对于其中的 list 类型做无序比较处理


核心对比方法如下,对于需要忽略的字段和类型进行特殊处理,减小误报:


def compare_data(data_1, data_2, COMP_SWITCH, ignore_list):
if isinstance(data_1, dict) and isinstance(data_2, dict): diff_data = {} only_data_1_has = {} only_data_2_has = {} d2_keys = list(data_2.keys()) for d1k in data_1.keys(): # 忽略某些字段 if COMP_SWITCH and __doignore(d1k, ignore_list): continue if d1k in d2_keys: d2_keys.remove(d1k)
temp_only_data_1_has, temp_only_data_2_has, temp_diff_data = compare_data(data_1.get(d1k), data_2.get(d1k), COMP_SWITCH, ignore_list) if temp_only_data_1_has: only_data_1_has[d1k] = temp_only_data_1_has if temp_only_data_2_has: only_data_2_has[d1k] = temp_only_data_2_has if temp_diff_data: diff_data[d1k] = temp_diff_data else: only_data_1_has[d1k] = data_1.get(d1k) for d2k in d2_keys: if COMP_SWITCH and __doignore(d2k, ignore_list): continue only_data_2_has[d2k] = data_2.get(d2k) return only_data_1_has, only_data_2_has, diff_data else: if data_1 == data_2: return None, None, None else: if COMP_SWITCH and isinstance(data_1, list) and isinstance(data_2, list): if __process_list(data_1, data_2, COMP_SWITCH, ignore_list): return None, None, None else: return None, None, [data_1, data_2] else: return None, None, [data_1, data_2]
复制代码


比对逻辑中加入了 COMP_SWITCH 开关,先按常规方式进行比较,当常规方式比较失败,再开启兼容模式进行比较,这样的做法是为了统计和观察哪些接口会使用兼容模式,使用兼容模式是否合理(还有兼容模式本身有没有 bug~~)。


2.4 处理失败

每次执行任务会生成一个批次号,每个接口请求回放对比完成后,保存结果时也会带上批次号写入数据库。当任务执行完成后,会根据批次号将失败的结果再拉取出来进行重试。


失败重试时,回放的逻辑和正常运行时略有不同,两次回放间隔了 30s 依次进行,这是避免当多次请求操作同一个对象时,因为第一次请求执行比较慢导致第二次请求命中唯一性校验而失败。


当重试结果仍然失败,那么需要人工介入进行排查,判断是否是新网关逻辑的问题还是有字段需要特殊兼容的问题,进行处理。

2.5 结果判断和迁移策略

对于回放成功的接口,会记录当时回放成功返回的 code 等信息到结果表,同时记录对应 code 的次数加 1,多次回放后会形成如下的统计结果:


{'200': 94, '234000001': 16, '234000002': 1}
复制代码


当统计结果中存在正常的 code 和异常的 code,同时没有回放失败记录的情况,就可以认为新网关对该接口的返回和老网关是一致的。回放通过的次数越多,可信性就越强。在这种情况下再将接口的流量切换到新网关,观察日常业务调用的情况,通过拉取新网关日志,记录返回的 code 和数目,当新网关返回的结果中也包含正常和异常的 code 时,认为在新网关也能正常请求,可以准备线上迁移了。


通过 QA 环境的对比回放,同时在预发环境全量迁移后观察业务功能是否正常,最后线上逐步灰度流量和监控,最后确保接口迁移到新网关是正常的。

三、面向普通测试场景的解决方案

因为属于回归类的工具,这套系统除了可以解决验证新老网关返回对比是否一致的问题外,还能够帮助验证分支环境和基础环境之间请求对比是否一致的问题(尤其是系统重构的情况),对业务场景进行回归。


为支持普通回归场景,只要在原来的系统上进行少量的改动:



主要的改动就是配置需要回放的接口和需要回放到的环境。在回放阶段,之前是回放到新网关和老网关,现在都回放到同一网关,通过不同的 X-Service-Chain 请求头,控制请求到达不同的后端环境,然后获得返回值进行对比。

四、最后

本文提供了一种通过采集日志进行回放对比来解决接口对比一致性的思路,运用到了新老网关重构验证等回归场景。


在新老网关迁移验证过程中,该系统起到了非常大的作用。通过该系统校验了接口 1200+,产生回放记录数目 30w 条,发现问题 30+ ,最终保障了线上切换工作的平稳进行。


由于能够获取了接口和参数,可以进一步做一些权限、后端参数校验这样的检查,减少测试人员在这方面投入的测试时间,这套系统已经投入实际使用,后面有机会可以再介绍其实现原理和使用效果。


期待未来能够挖掘出更多的使用场景,解决更多的验证问题,提高测试的效率和准确性。


作者介绍


本文转载自公众号有赞 coder(ID:youzan_coder)。


原文链接


基于日志的回放对比系统设计


2020-09-22 10:004079

评论

发布
暂无评论
发现更多内容

DeepSeek 如何 “逆袭” 打破巨头垄断?

Apache IoTDB

NineData云原生智能数据管理平台新功能发布|2025年1月版

NineData

数据库 工具 数据管理 NineData

音乐NFT的钱包对接流程

北京木奇移动技术有限公司

区块链技术 软件外包公司 音乐NFT

人工智能丨DeepSeek、文心一言、Kimi、豆包、可灵……谁才是你的最佳AI助手?

测试人

软件测试

AIP智能体平台:利用DeepSeek大模型实现智能化和自动化

大东(AIP内容运营专员)

人工智能

训推全面支持、开箱即用!DeepSeek V3昇思MindSpore版本上线开源社区

科技热闻

加速无索引表引起的主从延迟数据回放

GreatSQL

虾皮(shopee)商品详情接口(虾皮API系列)

tbapi

虾皮商品详情接口 shopee API 虾皮API 虾皮商品数据采集

DeepSeek 快速体验,魔搭+函数计算一键部署模型上云

阿里巴巴云原生

阿里云 云原生

【DeepSeek版】JeecgBoot低代码 3.7.3 发布,集成DeepSeek实现AI编程

JEECG低代码

低代码平台 代码生成 JeecgBoot DeepSeek

【重磅】歌力思携手7thonline第七在线 开启智能商品管理新篇章

第七在线

从图像到信息,AI识图开启智能识别新时代

HarmonyOS SDK

harmoyos

人工智能是否会发展出“自我意识”?科学与科幻的交汇

天津汇柏科技有限公司

人工智能

深度解读「摩根士丹利」人形机器人最新研报:100家人形机器人价值链(附报告)

机器人头条

科技 大模型 人形机器人 具身智能

淘宝店铺商品数据一网打尽:详解Taobao.item_search_shop接口

代码忍者

淘宝API接口

人工智能丨如何通过DeepSeek优化软件测试工作,提升效率与准确度

测试人

速度超越DeepSeek!Le Chat 1100tok/s闪电回答,ChatGPT 4o和DeepSeek R1被秒杀?

智领云科技

网易元宵节能提前下班,你慕了吗?

王中阳Go

Go 网易

图解系列|DeepSeek-R1的出众推理能力从何而来?

Baihai IDP

程序员 AI 推理模型 LLMs GenAI

中东APP支付需要注意的问题

北京木奇移动技术有限公司

APP支付 软件外包公司 中东APP

告警事件如何与 CMDB 打通附加更多元信息

巴辉特

告警管理 告警信息丰富 告警OnCall 告警响应

RUM实践-累计布局偏移(CLS)的探索

乘云数字DataBuff

前端监控 用户体验 运维监控 RUM

谷云科技RestCloud全面接入DeepSeek 开启智能新时代

RestCloud

AI ETL 数据集成工具 AIAgent DeepSeek

数造科技入选全国数标委首批成员单位,引领数据标准化新方向!

数造万象

行业资讯 数据治理 科技 数据标准 数据流通

DGL(0.8.x) 技术点分析

Splendid2025

人工智能

如何制定好绩效管理体系

易成研发中心

浏览量超 10w 的热图,描述 RAG 的主流架构

阿里巴巴云原生

阿里云 云原生

基于日志的回放对比系统设计_软件工程_马力_InfoQ精选文章