写点什么

滴滴七层接入平台实践和探索

  • 2020-09-07
  • 本文字数:4954 字

    阅读完需:约 16 分钟

滴滴七层接入平台实践和探索

1. 概况

从 2014 年底诞生至今,滴滴七层接入平台服务规模如下:


  • 负责全公司 http 请求东西向和南北向的流量接入和治理,涉及多个事业部。

  • 请求峰值 qps 数百万,日请求量数千亿,接入域名数千个、接入服务数千个、转发规则数万个。


千亿级的流量转发规模不仅对系统自身的稳定性和性能提出了极大的挑战,业务对接入平台也提出了更高的期望:除了自身稳定性和性能外,平台要进一步赋能和助力业务稳定性和效能的提升,具体体现在:


  • 自身稳定性

  • 可用性 99.99%

  • 自身性能

  • 平均转发延时<1ms

  • 稳定性赋能

  • 作为 http 服务统一的技术底座和稳定性能力规模化重要抓手,输出各种稳定性基础能力赋能到业务稳定性的建设和提升。

  • 效能赋能

  • 挖掘痛点,提高研发/运维/测试全生命周期的效能。


经过 5 年的持续迭代和演进,滴滴 7 层接入平台整体架构如下:整体上分为数据面和控制面两部分:



图 1. 七层接入平台整体架构


数据面


基于开源 nginx 建设,提供高稳定、高性能、多协议、安全的流量接入和服务治理。


控制面


  • 接入和配置变更: 自研配置变更平台,用户可以通过配置变更完成域名或服务的接入,并配置丰富的规则和策略。

  • 可观察性: 请求数据联动滴滴监控体系,提供面向全公司的 http 服务细粒度和多维度监控以及监控大盘。

  • 服务治理: 服务治理联动滴滴公司级别 911 预案平台、放火平台,提供体验统一的预案管理和故障注入操作能力。

  • 服务发现: 服务发现联动滴滴统一名字服务 DSI(Didi Service Information),提供稳定、实时的服务发现能力。

  • 安全防控: 安全防控联动公司 WAF 系统,对滴滴全公司应用层安全进行保驾护航。


本文将从以下三个方面进行滴滴七层接入平台的实践和探索介绍:「服务治理能力建设」、「稳定性建设」和「云原生时代接入平台探索」。

2. 服务治理能力建设

我们将从以下几个方面进行服务治理能力介绍:「服务发现」、「预案能力」和「可观察性」。

服务发现

经过调研,社区常用的 upstream 动态更新方案有 4 个:



表 1. 社区 upstream 服务发现方案调研


以上方案均不能完全满足我们的需求,参考方案 3 和方案 4,我们重新设计了 nginx upstream 动态更新模块,兼顾了稳定性、性能和可维护性,支持全公司 http 服务的服务发现,涉及数千个服务,特点如下:


  • 采用增量更新 upstream server 机制

  • 提供基于 HTTP Restful API 的轻量 upstream reload 接口,实现对 upstream 的动态变更

  • 完全兼容现有配置方式

  • 对配置进行持久化


同时通过接入平台的服务发现实践,我们抽象出公司级名字服务 DSI(Didi Service Information),DSI 通过 open api,除了接入平台外,公司服务发现 SDK DiSF、四层代理 DGW、容器平台、部署系统等系统也已经全部和 DSI 进行了打通联动,形成了公司基于 DSI 的统一服务发现体系,同时基于这套服务发现体系,也陆续孵化出一些稳定性工作的平台和能力,比如自动哨兵压测平台进行子系统容量精确评估和预警,比如对业务透明的无损发布机制等。



图 2. 滴滴服务发现体系

预案能力

我们基于接入引擎建设了 http 服务统一的限流、切流、故障注入等底层服务治理能力,并且和公司级 911 预案平台、放火平台打通联动,提供统一和易用的操作界面供用户使用,具体包括:


  • 多维度限流能力、限流阈值自动推荐能力、限流阈值自适应能力,目前已经成为公司稳定性保障的重要抓手

  • 多维度切流能力,在滴滴专快异地多活、子系统切流和业务上云灰度中起到了重要的作用

  • 基于接口粒度的错误率和延时故障注入能力,已经开始陆续在强弱依赖验证、预案有效性验证等场景中发挥作用。

可观察性

作为流量门户,接入平台通过输出请求标准数据并打通 SRM 服务可观察性系统,对公司 http 流量的可观察性起到了重要作用。



图 3. 多维度监控示例-接口监控



图 4. 服务监控大盘

3. 稳定性建设

七层接入平台作为公司的超一级服务,对稳定性有着极高的要求,如果接入平台出现稳定性故障,很有可能导致滴滴全平台业务不可用,对公司带来巨大的经济和品牌损失。除了建设稳定性基础能力外,我们还从以下 3 个方面重点进行七层接入平台的稳定性建设:「归零风险防控」、「接入引擎架构升级」和「配置变更风险防控」。

归零风险防控

我们总结接入平台主要的归零风险为:代码变更异常、容量不足、外网高可用能力欠缺、运维误操作 4 类,相关应对措施分别为:


代码变更: 技术上全部采用公司代码变更风险防控机制的最严标准强制控制,流程上要求变更必须要跨天完成,至少经历早晚两个高峰。


容量不足: 制定了快速扩容技术方案,目前正在尝试通过对接入引擎容器化提高弹性伸缩能力。


外网高可用能力 :通过 httpdns 进行流量切换和自建/非自建出口调度能力进行外网止损能力建设。


运维误操作 :所有高风险运维操作必须 double check 和分级、运维操作隔离域功能的应用。

接入引擎升级

最开始我们使用的接入引擎是 tengine,版本为 2.1.0,发布于 2014 年 12 月,tengine 基于的 nginx 版本是 1.6.2,2014 年 4 月发布,到 2018 年,我们陆续发现一些接入引擎的稳定性问题,主要体现在以下 3 方面:


  • 一些隐藏较深的 bug 不时在接入引擎上出现,修复成本和风险都较高,而最新的 nginx 已经全部修复。

  • 一些新的需求在 tengine1.6.2 的架构下已经很难继续演进和发展,比如动态 upstream 支持、一致性 hash 算法支持服务发现等,团队的研发效率和系统的可扩展性都无法得到更好的满足,最终也会体现在稳定性风险上。

  • 一些稳定性能力提升的功能在最新 nginx 版本下已经得到了支持,比如 worker_shutdown_timeout 和 reuseport 指令等,而我们还没有办法直接使用。


为了彻底解决这 3 个方面的稳定性风险,我们将接入引擎从 2014 年的 tengine 成功升级到 2018 年的 nginx,同时进行了很多优化工作,主要收益如下:


  • 修复了 8 个重要功能性能 bug,其中 5 个在线上已经发生

  • 进行了 15 项重要功能改进和优化,其中 5 个已经在线上触发问题。

  • 解决了发布更新时部分实例流量抖动,严重时甚至 cpu 掉底的问题

  • 解决了一致性 hash 算法在实例调权时全部接入引擎吞吐下降,业务剧烈抖动和报警的问题

  • 创新性解决了 srww 算法在有哨兵场景下进行压测或者发布更新时服务剧烈抖动,严重时甚至 cpu 掉底的问题,相关 patch 正在整理中,计划提交给 nginx 官方社区,后续也会整理文章对外分享。


除了稳定性收益外,引擎升级新增了 6 个业务强需求的功能和 5 个业务有预期的功能,长远看对接入引擎长期演进也奠定了良好的稳定性和扩展性基础。

配置变更风险防控

接入平台在 2016 和 2017 年分别有两次导致全平台故障的 p1、p2(公司事故等级,最高 p1)事故,原因全部为配置变更引起,接入平台的配置描述能力过于强大和灵活,在提供丰富灵活能力的同时不可避免会带来稳定性的隐患,因此配置变更的风险防控能力就作为稳定性保障的重中之重,我们设计实现了接入平台配置变更平台海姆,平台抽象和约束了接入引擎配置模型,同时将代码部署的风险防控能力全部复用到配置变更系统上,配置变更风险得到了较好的防控,再也没有出现过因为配置变更导致的 p2+故障。


海姆平台的主要风险防控特点如下:


  • 预防能力


配置模型的抽象和约束


配置语法检查和语义检查能力


配置强制 review 功能


配置分级发布功能(支持不同服务配置并行发布)


配置强制 double check 功能



图 5. 转发规则抽象示例



图 6. 配置变更风险防控能力


  • 发现能力


配置变更系统打通风险防控体系,服务有异常会自动进行风险提示和变更拦截。



图 7.配置变更风险提示和拦截


  • 止损能力


配置常态回滚和快速回滚能力

4. 云原生时代接入平台探索

多协议支持

多协议支持是云原生接入平台非常重要的一个能力,业内主流的数据面 sidecar envoy/linkerd2-proxy/mosn 等都具备多协议支持的能力,而滴滴东西向流量最广泛使用的协议就是 http 和 thrift。


2019 年随着接入平台对 http 协议流量管理和服务治理实践的成熟和 thrift 协议统一高效服务治理的迫切性,我们启动了接入引擎支持 thrift 协议的专项研发攻坚工作,目前已经在金融业务线进行了多个模块的落地,帮助业务解决了服务优雅发布、可观察性等痛点, 最近 Nginx 官方社区也已经认可接受我们的代码作为第三方模块,目前正在开源筹备中, thrift 接入引擎具备如下的特点:


  • 通用 thrift 编解码器

  • 支持多种序列化协议,包括 TBinaryProtocol、TcompactProtocol

  • 支持多种传输层协议,包括 Tsocket、TFramedTransport

  • 协议编解码无需 IDL

  • 模块化设计,很好的可扩展性

  • 编解码器提供通用接口,非 nginx 绑定,可以集成到其它代理中使用

  • 基于树的灵活高效 IDL 字段 Setter 和 Getter(Doing)

  • 模块化设计

  • 转发能力模块化,可作为独立的第三方模块集成到 nginx。

  • 简单易用

  • 配置模型基本同 http,简单易上手

  • 功能强大

  • 和 http 打平的服务治理能力,包括可观察性、限流、路由等

  • 高性能

  • 多进程异步无阻塞的编解码和请求转发模型

接入引擎 mesh 化

在集中式接入引擎诞生的 5 年多时间内,其持续在流量管理和服务治理上对业务稳定性保障进行赋能,随着云原生时代的到来和服务治理逐步进入深水区,集中式接入平台面临着新的挑战:


1. 极致的稳定性要求


集中式接入引擎始终有 3 个无法回避的稳定性隐患


① 多业务共享集群:


相互可能有影响:虽然通过稳定性机制建设的完善,近 3 年来没有因此带来稳定性事故,但共享集群的风险始终没有彻底根除,尤其在一些新功能开发和应用实践时始终如履薄冰,比如针对某个服务请求进行故障注入时理论上仍然可能对其它业务线带来影响。


② 鲁棒性较弱:


业务对接入引擎延时非常敏感(毫秒级要求),数万 qps 下接入引擎有时单机甚至单进程延时抖动就会对敏感业务带来较大影响,甚至触发业务线一级报警,运维同学承担着巨大的心理压力。


③ 容量边界的不确定性:


七层接入平台前往往还有一个四层接入代理,通过 vip 提供给业务方使用,二者对容量的精准评估和快速的弹性伸缩能力都有很高的要求,否则很有可能存在雪崩的归零风险。


2. 极致的运维效率


① 接入引擎和业务服务生命周期不同,整个接入体验不好,效率较低。


② 转发规则的维护成本很高


以上 2 点导致服务治理能难以较低的成本进行规模化落地,我们正在联合业务团队、弹性云和研发云团队做接入引擎 mesh 化的探索工作,mesh 化后以上的挑战将会得到很大程度的化解,目前正在仿真环境将接入引擎 mesh 化到客户端侧解决流量闭环的问题。

5. 总结

经过 5 年多的发展和演进,滴滴七层接入平台在稳定性能力建设、服务治理能力建设、云原生接入的探索取得了一些进展:

规模化的服务治理能力

  • 支持公司全公司 http 服务限流预案 400+、限流接口 2400+、切流预案 400+。

  • 持全公司 http 服务的服务发现,涉及数千个服务。

  • 支持全公司 http 服务可观察性能力建设,包括标准监控和细粒度多维度监控。

一级的稳定性保障能力

系统可用性>99.99%,转发延时<1ms,连续 3 年没有对业务可用性带来影响。

云原生接入引擎探索

  • 完成接入引擎多协议的支持。

  • 完成接入引擎 mesh 化探索,并打通相关控制面,即将在业务试点上线。

6. 未来展望

云原生接入引擎

云原生时代已经来临,我们相信在可见的未来,就像 TCP/IP 协议栈或者 SDN 一样,接入引擎一定会抽象出更通用的应用层流量管理和服务治理能力,作为 sidecar 下沉并固化在整个基础设施中,在屏蔽滴滴异构架构、异构技术栈、多语言、多协议业务特点进行规模化服务治理和将业务逻辑和基础施设解耦中发挥重大作用。

多模微服务治理

由于多 BU、历史包袱、业务技术栈倾向的特点,未来的应用架构必然不可避免异构化,即便如此,接入引擎 mesh 化也不是银弹,它在很长时间内会需要和传统基于 SDK 的服务治理和基于集中式接入平台的服务治理形成合力、组合补位,以一套组合拳的方式共同保障滴滴全平台的稳定性,提升运维/研发/测试的效能。

一站式七层接入平台

从用户角度看,七层接入平台目前的定位仍然是一个专家系统,服务的用户主要是有着丰富运维经验的 SRE,不管是接入引擎例行变更需求、问题分析定位还是服务治理能力赋能,业务 RD 更多情况下仍然需要寻求 SRE 的支持和帮助,这带来大量的沟通成本,进一步降低了整体业务交付效率,我们期望打造一个体验友好的一站式七层接入平台,业务 RD 和 SRE 都可以自助在平台上完成所有接入引擎相关工作,提高研发和运维的生产力。


作者介绍


李炳毅,滴滴高级专家工程师


本文转载自公众号滴滴技术(ID:didi_tech)。


原文链接


滴滴七层接入平台实践和探索


2020-09-07 10:042716

评论 1 条评论

发布
用户头像
nginx插件开源了吗?
2020-09-12 00:51
回复
没有更多了
发现更多内容

探索工业互联网领域中的设备通信协议

JustYan

物联网 工业互联网 物联网协议

TiCDC 源码阅读(二)TiKV CDC 模块介绍

PingCAP

#TiDB

如何把可观测需求落地为业务大盘?

云布道师

阿里云

JVM 如何获取当前容器的资源限制?

阿里巴巴云原生

Java 阿里云 容器 云原生

PingCAP 与 Wisconsin-Madison 大学建立科研合作,探索 Key-Value 存储系统的智能管理与自动调整

PingCAP

TiDB

TiCDC 在大单表场景下的性能优化:我们如何将吞吐量提升 7 倍?

PingCAP

#TiDB

澳鹏中国第三年,缘何成为AI训练数据服务行业领头羊?

澳鹏Appen

人工智能 数据采集 数据安全 数据标注 AI向善

2023-01-04:有三个题库A、B、C,每个题库均有n道题目,且题目都是从1到n进行编号 每个题目都有一个难度值 题库A中第i个题目的难度为ai 题库B中第i个题目的难度为bi 题库C中第i个题目

福大大架构师每日一题

算法 rust Solidity 福大大

九科信息超级自动化平台前景广阔——Gartner:超级自动化是RPA行业未来发展的必然趋势

九科Ninetech

极光笔记 | 当前最佳实践:Header Bidding 与瀑布流混合请求技术

极光JIGUANG

后端 营销 运营

LiveMe x TiDB丨单表数据量 39 亿条,简化架构新体验

PingCAP

#TiDB

Nydus 镜像扫描加速

SOFAStack

SOFA

数益工联 x TiDB丨如何运用 HTAP 挖掘工业数据价值?

PingCAP

#TiDB

解读重要功能特性:新手入门 Apache SeaTunnel CDC

Apache SeaTunnel

CDC 数据变更捕获

如何确定解决的问题的价值?

珑彧

方法论

属于 PingCAP 用户和开发者的 2022 年度记忆

PingCAP

#TiDB

得物染色环境落地实践

得物技术

测试 研发效能 测试环境 流量预测 企业号 1 月 PK 榜

TiCDC 源码阅读(一)TiCDC 架构概览

PingCAP

TiCDC

基于低代码平台构筑金融行业IT运维服务体系

明道云

web前端开发课程怎么样

小谷哥

时序数据库 TDengine 3.0 参数体系使用方式汇总

TDengine

数据库 tdengine 时序数据库

什么?比 MySQL 性价比更高的 TiDB Cloud Serverless Tier 来了?

PingCAP

#TiDB

欢迎来到,个人数据安全“世界杯”

脑极体

《解构领域驱动设计》-软件复杂度解析

珑彧

读书笔记 方法论 领域驱动设计 DDD 复杂

北京大数据开发技术培训机构怎么样

小谷哥

事件总线 + 函数计算构建云上最佳事件驱动架构应用

阿里巴巴云原生

阿里云 云原生 函数计算 事件总线

TiDB 首批通过信通院 HTAP 数据库基础能力评测

PingCAP

#TiDB

架构训练营模块三作业

现在不学习马上变垃圾

架构训练营10期

TableLayout(表格布局)

芯动大师

Android Studio tablelayout 表格布局

架构实战 3 - 外包学生管理详细架构

架构实战营 「架构实战营」

ES Client性能测试初探

FunTester

滴滴七层接入平台实践和探索_软件工程_滴滴技术_InfoQ精选文章