速来报名!AICon北京站鸿蒙专场~ 了解详情
写点什么

Kubernetes 距管理 1000 个节点还有多远?

  • 2015-09-23
  • 本文字数:1575 字

    阅读完需:约 5 分钟

为了尽快解决复杂问题,企业一般选择增加服务器节点作为解决方案。在很多情况下,资源的额外增加总是能换来时间上的回报。然而,增加节点个数来减少计算时间就像增加火箭级数来提高速度( tyranny of the rocket equation )一样——这类问题都是存在瓶颈的。一旦超过一定的规模,再增加节点不仅不会加快计算速度,反而会拖慢计算的进度。为此,谷歌公司专门推出了开源容器集群管理系统—— Kubernetes ,以实现资源的合理、高效的使用。在 1.0 版本阶段,Kubernetes 已经能够管理最多 100 个节点。但是,谷歌公司一直希望在 2015 年底实现 Kubernetes 支持节点数量的 10 倍增长。那么,该项目现在究竟进展如何,未来又会沿着怎样的路线进行下去呢?近日,Kubernetes 项目的官方博客就该问题进行了说明。

根据之间上亿次实验,谷歌公司提出了两个性能度量指标——API 响应灵敏度(API-responsiveness)和Pod 启动时间。其中,API 响应灵敏度指的是X% 以上的API 能够在Y 秒内返回结果,而Pod 启动时间要求Z% 以上的pod 能够在T 秒内启动完毕。需要注意的是,pod 启动时间中的镜像文件需要提前下载到本地机器,以去除网络带宽对性能的影响。

为了测量性能,谷歌公司还专门搭建了一套连续测试的框架。每隔2-3 个小时,系统就从 HEAD 创建一个包含 100 个节点的全尺寸集群(每个节点运行 30 个 pod),然后在其上运行大规模测试。其中,master 采用 GCE n1-standard-4 的机器(4 核、15GB 内存),节点采用 GCE n1-standard-1 的机器(1 核、3.75GB 内存)。测试步骤如下:

  1. 创建 pod 和 replication controller 来填充集群;
  2. 通过添加 / 删除 pod 或 replication controller 等操作产生负载,然后记录相关性能参数;
  3. 停止所有的 pod 和 replication controller;
  4. 整理性能参数,确定是否满足预期。

此外,为了测量 pod 启动延迟,每个 pod 只包含一个运行“gcr.io/google_containers/pause:go”镜像的容器。而且容器启动后,就开始一直睡眠。

性能测试结果分为两个部分——Pod 启动时间和 API 响应灵敏度。对于包含 10%、20%、50% 和 100% 节点数集群系统,其 pod 启动时间 T 分别如下:

10%-full 25%-full 50%-full 100%-full Z=50 0.90s 1.08s 1.33s 1.94s Z=90 1.29s 1.49s 1.72s 2.50s Z=99 1.59s 1.86s 2.56s 4.32s 从上表可以看出,即使是在包含 100 个节点的全尺寸集群中,Pod 启动时间也可以满足 99% 以上的 pod 在 5 秒内启动完毕。而对于大部分情况,pod 启动只需要 1-2 秒的时间。

在 API 响应灵敏度方面,集群系统对于不同操作的响应延迟如下图所示。

可以看出,所有操作的响应延迟均在 1 秒以内。而且,对于大部分情况,响应延迟只需要 0.1-0.3 秒,远远领先于 1 秒的目标。因此,Kubernetes 的性能已经完全能够保证包含 100 个节点的集群系统中 99% 以上的 API 在 1 秒内返回结果,同时 99% 以上的 pod 能够在 5 秒内启动完毕。

虽然这些测试结果仍然是在 100 个节点的情况下进行,这一结果却表明了 Kubernetes 的稳定性。作为走向 1000 个节点的第一步,Kubernetes 团队在这一阶段进行了大量努力——重新编写了基于观察的控制器、利用代码生成器来生成转换和深度拷贝函数、向 API 服务器添加了缓冲来避免多个 etcd 读取相同数据时的反串行化、减少了状态更新的频率以及在 API 服务器是实现了观察窗口等。这些努力为未来打下了很好的基础。据透露,Kubernetes 如果要支持 1000 个节点,仍然需要在以下方面进行改进:

  • 把事件从 etcd 中挪出
  • 使用更好的 json 解释器
  • 重写调度器来提高效率和并行度
  • 改善 API 服务器和 Kubelet 时间的通信效率

感谢郭蕾对本文的审校。

给InfoQ 中文站投稿或者参与内容翻译工作,请邮件至 editors@cn.infoq.com 。也欢迎大家通过新浪微博( @InfoQ @丁晓昀),微信(微信号: InfoQChina )关注我们,并与我们的编辑和其他读者朋友交流(欢迎加入 InfoQ 读者交流群)。

2015-09-23 19:003155
用户头像

发布了 268 篇内容, 共 123.0 次阅读, 收获喜欢 24 次。

关注

评论

发布
暂无评论
发现更多内容

千万级学生管理系统Redis存储架构

IT屠狗辈

redis 架构实战营

模块四作业

Mr小公熊

网络工程师必知:三种防火墙链路检测技术:BFD、NQA、IP-link

Ethereal

模块四

blazar

「架构实战营」

千万级学生管理系统考试试卷存储方案

Geek_36cc7c

在阿里巴巴,我们如何先于用户发现和定位 Kubernetes 集群问题?

阿里巴巴云原生

阿里云 云原生 分享 KubeProbe

模块八-作业二

hunk

云原生训练营

千万学生管理系统之考试模块存储架构设计

随欣所遇

架构训练营5期

工作想法小计(4):2/28 - 3/4

非晓为骁

个人成长 工作 细节 工作想法

强大的JSON.stringify,你真的会使用吗?

战场小包

JavaScript 前端 3月月更

千万级学生管理系统的考试试卷存储方案

smile

架构实战营

千万级学生管理系统的考试试卷存储方案

风中奇缘

架构实战课 「架构实战营」

DDD实战(3):整体工作框架和全局需求分析

深清秋

DDD 软件架构 生鲜电商系统 3月月更

架构实战营:模块四作业

刘璐

最佳实践:Kubernetes 集群中 DNS 故障的可观测性与根因诊断

阿里巴巴云原生

阿里云 Kubernetes 云原生 服务器 DNS

【BBC learningenglish】with Tango

IT蜗壳-Tango

3月月更

千万级学生管理系统考试试卷存储方案设计

tom

千万级学生管理系统的考试试卷存储方案

凌波微步

「架构实战营」

架构师训练营模块四作业

刘帅

MySQL 15条常用的SQL知识(18/100)

hackstoic

MySQL

全链路压测(五):生产全链路压测实施全流程

老张

性能测试 全链路压测 稳定性保障

[架构实战营]-千万级学生管理系统的考试试卷存储方案

邹玉麒

「架构实战营」

【模块四】千万级学生管理系统考试试卷存储方案设计

yhjhero

#架构训练营

峰会报名|从金融行业技术选型,看 RocketMQ 如何应对严苛挑战

阿里巴巴云原生

阿里云 RocketMQ 云原生 消息队列 峰会报名

感受当下-人生意义的思索

李印

自我感悟 生活的意义

第四课作业

浪飞

构建 Go 应用 docker 镜像的十八种姿势

万俊峰Kevin

微服务 web开发 go-zero docker image Go 语言

Python二分查找,字符串模板,textwrap模块,每天写写Python自然就会了,每日Python第2天

梦想橡皮擦

3月月更

关于千万级学生系统考试的思考

Geek_1b4338

#架构训练营

节省 58% IT 成本,调用函数计算超过 30 亿次,石墨文档的 Serverless 实践

阿里巴巴云原生

阿里云 云原生 函数计算 石墨文档 资源伸缩

PHP 遇见 Serverless,帮你解决这些痛点!

阿里巴巴云原生

php 阿里云 Serverless 云原生

Kubernetes距管理1000个节点还有多远?_语言 & 开发_张天雷_InfoQ精选文章