速来报名!AICon北京站鸿蒙专场~ 了解详情
写点什么

存储成本降低 80%,查询效率提升 5 倍,朴朴 APM 链路采样实战

  • 2024-03-04
    北京
  • 本文字数:3674 字

    阅读完需:约 12 分钟

大小:2.22M时长:12:56
存储成本降低 80%,查询效率提升 5 倍,朴朴 APM 链路采样实战

作者 | 朴朴科技平台组


背景


在当今数字化时代,伴随着朴朴业务的快速增长,朴朴全面拥抱微服务、云原生和容器技术,同时,在云原生可观测性方面,朴朴几乎所有的微服务都接入了朴朴 APM 来帮助开发者快速定位、分析和诊断问题。然而随着业务复杂度和服务数量的不断增加,上报给 APM 的数据量也急剧增加。


目前,朴朴 APM 后端存储数据库使用 ClickHouse,每天上报的数据量在 1000 亿行左右,压缩后存储空间占 20TB 左右。为了降低存储成本以及提升数据信噪比,朴朴平台技术团队对 APM 链路引入了自定义采样。


用户关心的采样数据


我们仔细思考下,用户真的需要这么大的数据量吗?用户关心的是我想要的 Span 你必须给我采样到,并且链路追踪 Trace 必须是完整的。因此我们在做采样的情况下,如果能够保证 99.99% 的用户的需求,那么对用户就是无感的。


根据日常线上排查经验,我们发现业务研发主要关心以下优先级高场景:


  1. 在调用链上出现异常 Error


  1. 耗时长(阈值取决实际业务需求)


  • A/C 端 HTTP 接口耗时超过 「250ms」


  • Dubbo 接口耗时超过 「250ms」


  • XXL-Job 定时任务数据全保存


  • 在调用链上出现 MySQL 耗时超过 「100ms」


  • 在调用链上出现 Elasticsearch 耗时超过 「200ms」


  • 在调用链上出现 Redis 耗时超过 「50ms」


  • Kafka 消费组耗时超过 「1s」


  1. 业务场景核心调用链。如:搜索、加购物车、下单、支付等流程。


注意:为方便后面描述,我把上面业务关心的 Span 定义为「有意义的 Span」。


常见的链路采样策略


常见的采样策略主要分为 3 种:基于头部采样、「有意义 Span」向下传播法、基于尾部采样,可以根据实际的业务情况进行结合使用。


图 1 为朴朴 APM 整体采样示意图,其中头部采样、「有意义 Span」向下传播法基于服务挂载的 Agent 插件实现,尾部采样是在 OAP (Observability Analysis Platform,观测分析平台) 链路数据处理模块进行。



图 1:采样位置示意图(图中黄色模块重点标注)


3.1 基于头部采样头部采样


从请求一开始就做出了哪些初始节点需要采样的决定。没有做上下游链路判断逻辑,从一开始选择性采集少量数据。可以简单理解为 Agent 端上报时就已经采样了。


优点:实现简单。


缺点:无法感知链路其他节点情况,无法保证链路完整性。



图 2:基于头部采样示例图


3.2「有意义 Span」向下传播法


当存在「有意义的 Span」,继续向下传播时,会给接下来调用的所有 Span 标记上「有意义」,在采样的时候,当看到这些标记时,则会主动采样保存下来,不会剔除掉。


优点:实现简单。


缺点:因为标记可能发生在链路中间节点,无法保证链路完整性,只保留了部分链路。



图 3:基于向下传播法采样示例图


3.3 基于尾部采样


即在消费端等待单条链路完整消费后进行采样(一般是在数据入库前进行)。业内为了保证在异常或者慢查询的链路数据完整性,基本采用这种方式。


优点:保证链路完整性


缺点:如何保证链路完整性,实现较为复杂。



图 4:基于尾部采样示例图


朴朴 APM 基于尾部采样实践


因为基于头部采样、「有意义 Span」向下传播法实现较为简单,不进行过多描述,本文章主要讲解如何基于尾部采样,支持多种方案设计供用户选择适合自己的场景。


4.1 延迟消费方案



图 5:延迟消费方案


根据业务特性,我们发现 1 条完整的链路耗时基本不会大于 1 分钟,我们可以认为 1 分钟后这条链路已经都上报到 Kafka 了。因此只要先判断要保留的 TraceId,然后延迟 1 分钟再次消费进行比对就能保证将整条链路完整保留。


消费者 A:实时消费链路数据,判断是否是「有意义 Span」,将「有意义 Span TraceId 保存(因为这条链路所有 Span TraceId 是一致的)。


消费者 B:延迟 1 分钟消费链路数据,获取有 TraceId 存放到本地缓存,判断链路数据是否在本地缓存里,在的话就进行保留。


适合的场景


采样策略完全符合用户的预期,可以对全部数据都进行采样。


方案优缺点


优点:可以在保留链路完整性的前提下实现全采样,不仅节省了 ClickHouse 的入库带宽和存储成本,而且提高了查询效率。


缺点:1. 需要延迟 1 分钟用户才能看到完整的链路(取决于业务特点,我们这是保证链路查询延迟不高于 5 分钟即可)。2. 需要对链路数据重复消费,增加了机器成本和带宽成本。


如何实现消费延迟?


Kafka 本身是不支持消费延迟的,常见的延迟消费方案也是消费时判断是否到期然后再发送到另外的 topic,但是这种方案的成本是不可接受的,因为 topic 数据量很大,会导致 Kafka 的带宽与存储成本翻倍,因此我们采取了一种取巧的方式来实现。


Kafka 本身支持手动上报 offset 进行消费,那么如果一直上传相同的 offset 不就可以变相实现暂停消费效果。


Java 代码实现如下:



朴朴在线业务研发同学希望能保留最近 24 小时的全量数据,方便进行最细致的排查。延迟消费方案可以实现(双消费 1 个采样 1 个保留全量),但是这会导致消费者服务与带宽成本都翻倍,整体成本反而没有节省多少,因此最终决定采取数据库空闲时间采样方案。


4.2 空闲时间采样方案


经过观察,我们发现链路上报与用户使用的高峰期是早上 9 点到晚上 8 点,其他时间段的流量还不到高峰期的 20%,且数据库的机器负载一直在低水位(CPU10%,可用内存 50G),因此可以利用数据库空闲时间的资源进行采样。



图 6:空闲时间采样方案


实时消费逻辑:增加满足采样规则的 TraceId 入库逻辑,经过分析,有意义的 TraceId 只占全量的 0.14%,对原有资源负载基本无压力。


定时任务逻辑:空闲时间开启定时任务,比如凌晨 0-4 点执行任务,将昨天的链路完整数据与采样 TraceId 表进行关联然后插入历史数据表。



采样表和实时数据表保留 28 小时,是为了预留 4 小时的冗余容错时间,防止采样失败可重试。


适合的场景


用户需要保留 24 小时全量数据 + 30 天采样数据。


方案优缺点


优点:利用已有资源空闲时间,没有增加额外的成本(凌晨耗费 CPU 50% 内存 10G)。


缺点:由于要保留 24 小时全量数据,因此只节省了历史数据的存储成本,没有减少入库带宽的成本。


定时任务 SQL 语句



定时任务注意事项


  1. 避开整点:任务只能在 00:10 - 00:50 执行,因为 ClickHouse 冷热分离是基于整点,会在整点时刻进行数据迁移,要避免资源冲突。


  1. 分批处理:60 分钟一批,防止 ClickHouse 内存与 CPU 负载过大。


  1. 使用本地表:insert into select 语句里面涉及的表都要使用本地表,如果使用分布式表会导致数据转发到各节点,浪费资源且耗时很长。


4.3 采样策略优化


采样的规则不是一成不变的,而是要结合公司本身业务特性持续动态调整的。朴朴 APM 最初按上文【2. 用户关心什么样的 Span】规则整体采样保留率为 8%,观察图 7 会发现有很多服务保留率过高,因此要具体情况具体分析,进一步优化采样的策略。



图 7:初版规则采样保留率


这里列举几点常见的优化策略:


  1. 预期异常采样优化采样保留规则有 1 条是保留完整的错误链路,但是经过分析采样保留数据,发现有部分异常属于预期异常:


  • 业务预期参数异常:com.pupu.exceptions.ArgumentException: 登录已失效,请重新登录


  • Redisson cluster 模式下 eval 命令预期异常:org.redisson.client.RedisMovedException


  • HTTP 状态码 401 。


这些异常属于频发且无需链路排查,直接查看日志就可知道问题原因,占比整体错误 50% 以上。因此我们采取在 OAP 数据处理模块中自定义规则将这部分链路正常保留,但是异常状态位改为正常。这有助于采样优化和用户更加准确的分析服务异常原因(没排查这些预期异常前,服务异常率可能为 10%,但是实际真正的异常率应该是 1%)。


  1. 特殊场景慢查询阈值调整


默认情况下慢查询的阈值是根据组件区分的,比如 HTTP 接口的慢查阈值是 250ms,但是部分服务属于特殊场景,如大数据批处理服务。每个接口的耗时基本都在秒甚至分钟级别,导致采样后认为是慢查询全部保留。因此服务要进行区分:业务服务、大数据服务、基础平台服务等。要针对不同服务类型,甚至单个服务进行对应的慢查询阈值设置。具体的阈值可以参考服务耗时的 p999 和咨询服务 owner。


  1. 生产消费消息链路拆分


初版关于消息队列的链路是同时含有生产者和消费者,链路长度基本是上万(因为包含太多消费者服务)。导致用户查看链路很难聚焦,采样也因为链路太长,只要其中 1 条发生异常或慢查询就会被保留。


经过调研发现用户基本不关心自己生产的信息是被其他服务如何消费的,也不关心消费的消息具体是怎么产生,最多只要知道是哪个服务消费或者产生的消息,不在意具体的链路。因此我们修改了插件将生产消费消息链路拆分,即生产与消费都是单独的 TraceId。为了保证特殊场景下用户真想查看完整的链路,消费者链路会有单独字段 producer.traceid 记录生产者的链路 id,需要的时候可以进行关联查询。


经过上面一系列的采样优化,采样保留率进一步降低,由 8% -> 4%。



4.4 采样实践成果


通过上述的优化之后,我们对比了采样前与采样后的存储成本和查询历史数据的性能。



即在不影响用户使用情况下,数据存储成本降低了 80%,查询效率提升了 5 倍。


总结与展望


朴朴 APM 链路采样的成功实践,不仅降低了存储成本,还提高了历史数据的查询效率。未来,我们打算进一步扩展数据采样的维度(包括:头部采样、采样策略根据历史指标动态化等)来进一步提升 APM 的性能并降低运营成本。

2024-03-04 18:067251

评论

发布
暂无评论
发现更多内容

科技创新闪耀柏林 IFA,2023全球产品技术创新大奖榜单揭晓

科技热闻

高并发系统设计之负载均衡

Java随想录

Java 并发

火山引擎DataLeap数据血缘技术建设实践

字节跳动数据平台

大数据 数据治理 数据安全 数据研发 企业号9月PK榜

蓝易云:多个端口怎么运行SSH服务器?

百度搜索:蓝易云

云计算 Linux 运维 SSH 云服务器

LaunchBar for Mac(程序快速启动工具) v6.18.1中文激活版

mac

苹果mac Windows软件 快速启动工具 LaunchBar

直播平台源码开发搭建APP的DASH协议:流媒体技术其中一环

山东布谷科技

软件开发 直播平台源码 流媒体技术 DASH 动态自适应流媒体

DBeaverUltimate 最新旗舰激活中文版 v23.2.0

胖墩儿不胖y

数据库管理 管理数据库 数据库工具

强大的鼠标增强软件 BetterMouse for Mac中文

mac大玩家j

Mac软件 鼠标管理 鼠标工具

改革企业治理结构,建立国有企业全面预算管理制度

智达方通

国有企业 智达方通 全面预算管理 预算管理信息化

今日头条极速版升级头条搜索极速版,更智能、更丰富、更极速

科技热闻

SQL 查询的执行顺序

emanjusaka

MySQL 数据库 sql 后端

性能问题分析排查的实践方法

老张

方法论 性能测试

后起之秀优咔科技,助力自动驾驶快速落地

编程猫

在 Go 中如何编写测试代码内容补充

江湖十年

golang 后端 单元测试

后端工程师求职实录:二线城市就业攻略与心得分享

王中阳Go

golang 面试题 求职 找工作 `后端

2024上海国际物联网展览会(IoT展)

AIOTE智博会

物联网展览会 物联网博览会 物联网展

平台工程动态 Monthly News 2023-8

杨振涛

软件工程 研发效能 平台工程 开发者体验 内部开发者平台

小灯塔系列-中小企业数字化转型系列研究——音视频服务测评报告

向量智库

Spring Boot整合Minio实现上传凭证、分片上传、秒传和断点续传

java易二三

Java 编程 程序员 Spring Boot 计算机

蓝易云:Ubuntu Linux 系统上怎么使用 SNAP 安装 Docker?

百度搜索:蓝易云

Docker Linux ubuntu 运维 SNAP

为什么企业需要私有化专属大模型

Baihai IDP

程序员 AI 大模型 生成式AI 白海科技

存储成本降低 80%,查询效率提升 5 倍,朴朴 APM 链路采样实战_数据湖仓_朴朴科技平台组_InfoQ精选文章