
本文,作者将比较 AWS 平台上各编程语言的冷启动成绩。随着最近 Ruby 的加入,再加上 2018 年的结果作为参照对象,相信这将是一次有趣的分析。

冷启动是什么?
在无服务器计算世界中,我们要求函数以按需方式运行,并在不需要时被及时弃用。这种仅在必要时运行函数的整个执行过程,即被称为冷启动现象。

定期冷启动(视频截图)
冷启动代表着代码在首次执行时所消耗的时长(一般为 5 到 25 分钟)。这意味着相关代码需要进行下载、容器化、启动以及运行准备。此外,整个过程在语言性能方面存在着巨大差异,不同语言的时耗可能相关 20 到 60 倍。冷启动的长度取决于几个核心变量,例如语言和运行时、专用于函数的资源量(mb)以及所运行函数中的包和依赖关系。
尽管并非随时存在,但冷启动时间仍是一项重要指标。每当我们面对一连串请求流量时,Lambda 函数就有可能出现冷启动操作。
方法
我测试了以下几种语言:Go 1.x、Node.js 8.10、Java 8、Ruby 2.5、Python 3.6 以及.netcore 2.1。分别利用这些语言编写出三个函数,函数本身没有什么实际作用,只是发出“hello world”内容。每种语言的三个函数分别被分配以 128 mb、1024 mb 以及 3008 mb 内存。接下来,我又创建了一个阶梯函数,用以触发这所有 18 个函数,我会定期从 AWS x-ray 处手动收集测试结果。
结果
我收集了冷启动时间,外加 AWS x-ray 引入的新变量——初始化,这项变量用于测量环境设置时间。
下图所示为冷启动成绩对比,共分为三个部分,分别为 128 mb、1024 mb 以及 3008 mb 内存配置下的对应结果。

冷启动时间,128 mb、1024 mb 以及 3008 mb 内存配置下的各函数成绩,单位为毫秒。可以看到,整体结果与 2018 年相同,每种语言分配到的资源量越大、启动时长越短,而经过编译的语言速度相对更慢。
不过令人惊奇的是,与 2018 年不同,这一次,Node.js 成了最大的赢家,紧随其后的分别是 Ruby 以及 Python。在 2018 年的排名中,Python 夺得榜首,我认为这是因为 Lambda 本身就运行在 Python 环境中。由于启动时不需要额外的运行时,所以 Python 获得了明显的优势。而结合新一年的成绩,我们看到其它运行时也迎来了显著优化,甚至足以与 Python 正面对抗。

平均初始化时间,由 AWS x-ray 提供,单位为毫秒。
上图所示为各语言运行时的平均初始化时间。Node.js 再一次与 Python 处于同一水平线,也许是因为 AWS 团队构建了一个针对 Node.js 函数进行优化的独立处理程序?

平均冷启动时间,单位为毫秒
平均冷启动时间的可视化结果,可以看到大多数语言的性能表现都有所提升。与 2018 年不同,今年各种语言似乎都不再高度依赖所能使用的内存资源。当然,除了 Java 和.Net 之外。我很好奇,这是不是代表着 AWS 的工程团队已经找到了无服务器运行效率的上限。
另外,如果在 2020 年再次进行实验,结果又会怎样?我们还会看到如此显著的改善吗?

2018 年平均冷启动时间,单位为毫秒

2019 年平均冷启动时间,单位为毫秒
过去 16 个月,出现了明显的性能改进。事实上,在这样一波全面改进之下,冷启动时间成本已经相当低廉,几乎不需要给予特别关注。Node.js 目前为性能最高的冷启动语言,在短短 16 个月中性能提升达 74.6%,具体缩短了 638 毫秒。

相较于上一年,各语言在同样场景下的冷启动时间都得到显著改善
这确实是对 AWS 工程团队最好的证明。他们不仅开发出了这样的产品,而且一直在努力加以打磨。
温函数
最后,我还打算整理一下关于温函数的性能表现。通过这种方式,我们可以了解 Lambda 函数在大多数情况下的实际执行速度。

温启动,单位为毫秒
经过适当预热的 lambda 函数一直保持着较高运行效率,可以看到各种语言之间的差别已经非常有限。
原文链接:
评论