美国拼车应用创业公司Lyft 宣布用 SaltStack 代替 Puppet 作为其系统配置管理工具。根据 Lyft 工程师 Ryan Lane 在其博客中的叙述, Ansible 也在考虑之列。但 Lyft 在综合考虑易用性、成熟度、性能和开发社区等因素后,认为 SaltStack 更胜一筹。
就易用性而言,SaltStack 复杂的文档结构和密集的文字,使得其学习曲线更为陡峭。Ryan 表示,虽然 Ansible 的文档对初学者而言更简单易读,但随着项目规模的增大,SaltStack 的文档对开发者的帮助更大。深入分析配置文件(Ansible 中称为 playbooks,SaltStack 称为 stat definitions)突显了二者的区别。Lyft 的工程师发现,SaltStack 保持了输入、输出、配置文件的一致性,所有文件均使用 YAML 格式,而 Ansible 则使用不同的文件格式(INI,YAML)。循环和条件的实现方式也不同。Ansible 将逻辑部分内嵌在 DSL 中,而 SaltStack 使用 Jinja (一个 Python 模板引擎)。Ryan 和他的同事更喜欢 SaltStack 的方法。另一个决定性的因素是 SaltStack 拥有“卓越的”自省(introspection)性能。
在成熟度方面,针对 Lyft 的用例,Ansible 和 SaltStack 都能提供所有必要的性能和足够的成熟度。不过 Ryan 发现 SaltStack 有更丰富的特性:可以以不同的文件格式输出到不同的位置;可以从不同的来源加载 pillars (其本质是一种数据结构);如果以代理模式运行,可以通过 reactor 系统触发本地事件。
性能方面,以 Lyft 的用例做测试,SaltStack 速度更快,尤其是在 no-change 运行模式下:
Salt:
- Full run: 12m 30s
- No change run: 15s
Ansible:
- Full run: 16m
- No change run: 2m
在相同的应用场景下 SaltStack 的运行速度远远快于 Ansible,Ryan 因此曾在 Ansible 上提交过一个问题,不过该问题目前已经关闭。Ansible 的创始人Michael DeHaan 在Hacker News 上提供了一篇关于Ansible 性能调节的文章,不过文章内容并没有回应Ryan 对于在Ansible 中用户相关操作运行缓慢的抱怨。
至于开发社区,Ryan 和他的同事认为SaltStacks 更为友好,开发者数量也更多。虽然Ryan 说“Ansible 几乎是由mpdehaan 一个人开发的”,但Michael DeHaan表示 Ansible“目前有 810 名贡献者”。Lyft 的工程师们还认为 SaltStack 社区是个更友好、更有助于开发者的社区,对特性请求的接受度也较高。与 Asible 相比,他们可以向 SaltStack 提交更多的变更,虽然 SaltStack“有时候在接受代码时不够严格(我希望看到更多的代码审查)”。这似乎是个项目管理的哲学问题,而 Michael DeHaan 在 Hacker News 上写道“当我们不同意时一定会拒绝。我认为这非常重要。筛选和测试在一定程度上决定了一个项目。”
促使 Lyft 选择替换 Puppet 的主要原因是其复杂的、有将近 10000 行代码的代码库。因为 Lyft 遵从“谁开发,谁运行”的原则,其 DevOps 团队认为 Puppet 代码库不再适合开发者使用。而使用 SaltStack 和 Ansible,用 1000 行左右的代码就能复制 Puppet 的架构。
当被问到彻底重写 Puppet 的可能性时,Ryan 写道:
从头开始重写可能会大幅降低代码量,可能也会降低运行时间。即便如此,我认为重写 Puppet 会耗费我相当长时间。
Lyft 对新工具有几个主要的需求。工具应该允许无主架构,因为主节点增加了“一个不必要的故障节点,同时牺牲了性能”。代码应该能顺序阅读,而不会有任何优化打破该原则。代码应该简洁,有少量的配置管理抽象。工具应该支持将横切配置(例如监控)和服务 / 应用特定配置放置在不同代码库的设计。
InfoQ 发表过一个基础架构配置管理工具的系列,其中就有 SaltStack 和 Ansible 的介绍。我们也组织过一次该领域主要产品的用户间的虚拟座谈会。有意思的是,Ryan 指出的SaltStack 和Ansible 的几项特点,在我们的虚拟座谈会中也被重点提到过。
查看英文原文: Lyft Replaces Puppet With SaltStack
感谢赵震一对本文的审校。
给InfoQ 中文站投稿或者参与内容翻译工作,请邮件至 editors@cn.infoq.com 。也欢迎大家通过新浪微博( @InfoQ )或者腾讯微博( @InfoQ )关注我们,并与我们的编辑和其他读者朋友交流。
评论