速来报名!AICon北京站鸿蒙专场~ 了解详情
写点什么

我们为什么构建自己的 serverless 机器学习平台,而非使用 AWS Lambda?

  • 2021-01-27
  • 本文字数:1526 字

    阅读完需:约 5 分钟

我们为什么构建自己的serverless机器学习平台,而非使用AWS Lambda?

本文最初发表于Cortex网站,经原作者 Caleb Kaiser 许可由 InfoQ 中文站翻译分享。


对于模型部署来讲,AWS Lambda 是一个很有吸引力的方案。从表面上来看,其收益是很明显的。Lambda 可以:


  • 让数据科学家和机器学习工程师在部署时无需管理基础设施

  • 在最大化可用性的同时,能将成本降到最低

  • 为定义预测 API 提供了一个简单的接口


但是,问题在于,尽管这都是 serverless 架构的收益,但是像 Lambda 这样的通用 serverless 平台通常会有一些限制,这些限制使得它并非机器学习的最理想方案。


我们亲身体会到这一点。在着手实现 Cortex 之前,我们曾经尝试通过 Lambda 运行部署。事实上,正是由于 Lambda 的不足,在一定程度上促使我们建立一个专门用于机器学习的 serverless 计算平台。

Lambda 不能部署大型的模型(比如 Transformer 模型)

现在,你可能已经读过很多关于机器学习模型增长的文章了。可以说,在很多适用于机器学习的领域,尤其是自然语言处理方面,模型正在迅速地变得越来越大。


例如,在过去几年中,Hugging Face 的 Transformers 库成为了最受欢迎的 NLP 库。从传闻中看到,用户经常在生产 API 中使用它。这个库为如下的模型提供了便利的接口:


  • GPT-2:完全训练后大约是 6GB

  • BlenderBot:完全训练后大约是 5GB

  • RoBERTa:完全训练后大于 1GB


而这仅仅是看上去比较合理的模型。有些模型,比如 T5,可能会超过 40GB,不过我承认,自己没有遇到过太多团队大规模地部署这种规模的模型。


适用于现代机器学习需求的 serverless 平台需要能部署大型的模型,但是 Lambda 做不到这一点。Lambda 限制部署包的大小为未压缩的 250MB,并将函数限制到了 30008 MB 的内存。如果你想运行任何一种最先进的语言模型,Lambda 都不是合适的可选方案。

为进行模型处理,需要 GPU/ASIC 的支持

随着模型变得越来越大,它们的资源需求也会随之增加。对我们前文所讨论的一些大模型来说,使用 GPU 推理是唯一能以接近实时延迟的速度处理它们的方式。


类似的,像 Inferentia 和 TPU 这样的 ASIC 在某些情况下正在改变模型处理的经济效益,并且随着它们的不断成熟,有潜力在更大的范围实现这一点。即使是相对比较年轻的方案,但是我们已经对某些模型的性能进行了基准测试,使用 Inferentia 的效率能提高一个数量级。


在过去,GPU/ASIC 推理被认为是相对小众的场景,但是它正在越来越多地成为机器学习工程的标准。令人遗憾的是,Lambda 并不支持它。


对大量的 Cortex 用户来说,仅凭这一点就让 Lambda 失去了将模型部署到生产环境的机会。

Lambda 处理模型的效率太低

Lambda 实例能够服务于连续的请求,但不能处理并发的请求。在处理模型的时候,这是一个大问题。


推理是一项计算成本高昂的任务,通常伴随大量的延迟(因此经常需要 GPU/ASIC)。为了防止推理成本的飙升,很重要的一点就是在分配计算资源的时候,要尽可能保持高效,同时不能对延迟产生负面影响。


在 Cortex 中,我们实现这一点的方式是提供预测前和预测后的钩子,它们可以异步执行代码。通常来讲,当一些 IO 请求(比如从数据库中调用用户信息、写入日志等)与推理函数相连接的时候,就会用到它。


这些异步钩子提供的优势在于,它允许我们在预测生成后立即释放推理所需的资源,而不必等到响应发送之后。


然而,在 Lambda 中,这是不可能实现的。


因此,如果使用 Lambda 处理模型的话,很可能会因为每个实例上闲置的资源浪费而导致过度扩展。

机器学习需要一个专门的 serverless 平台

Serverless 架构天然适合模型部署。但问题在于,我们在适用于 MLOps 的任何场景中都会遇到的问题是,机器学习的需求非常具体,使得流行的 DevOps 工具(如 Lambda)并不适用。


我们构建 Cortex 的部分使命就是构建一个平台,提供我们在 Lambda 中喜爱的易用性,同时解决 ML 基础设施的具体挑战。


原文链接:

https://www.cortex.dev/post/serverless-machine-learning-aws-lambda

2021-01-27 14:341834
用户头像
张卫滨 业精于勤,行成于思。

发布了 558 篇内容, 共 397.5 次阅读, 收获喜欢 735 次。

关注

评论 1 条评论

发布
用户头像
标题应该加一个机器学习
2021-01-27 15:08
回复
没有更多了
发现更多内容

京东商品详情数据接口(JD.item_get)丨京东API接口代码指南

tbapi

京东API接口 京东商品详情接口 京东商品数据采集

音视频编解码SDK开发的流程

北京木奇移动技术有限公司

音视频开发 音视频技术 软件开发定制

DaisyDisk for Mac:可视化磁盘清理,释放空间超轻松

Rose

考核信息化管理平台(源码+文档+部署+讲解)

深圳亥时科技

智源Aquila-VL-2B模型成为首个Linux基金会MOF评级达到“最开源”Class I等级的模型

智源研究院

Navicat Premium 15 for Mac(数据库开发工具)中文版

Mac相关知识分享

Understand for Mac(优秀的源代码审查工具)

Rose

Trapcode Suite红巨人粒子特效套装(AE/PR插件) -mac/win

理理

Acrobat Pro DC 2024 for mac (PDF编辑转换器)中文版

Mac相关知识分享

工单+远程技术支持一个方案就搞定!贝锐向日葵技术支持方案升级

科技热闻

得物商家客服从Electron迁移到Tauri的技术实践

得物技术

typescript rust Vue 前端 前端 electron

PHP爬虫的使用与开发

科普小能手

php 爬虫 爬虫教程 PHP开发

Cinema 4D 2023激活补丁(C4D 2023中文版)-Mac/win

Rose

ExpressBurn Plus for Mac(DVD光盘刻录工具)

Mac相关知识分享

LED电子屏厂家解密:LED控制系统的硬件设计

Dylan

系统 电子 LED display LED显示屏 市场

安全研究年终总结-分享2024年RCE类的CVE漏洞高危EXP集合!

安全乐谷

网络安全 数据安全 安全漏洞 漏洞分析 安全扫描

为伙伴点赞:Vector Shop 上架即登付费榜

iofomo

前端 设计师 图形图像 ui设计 绘图软件

Python爬虫实战:调用微店商品详情接口(Micro.item_get)

代码忍者

API 接口 pinduoduo API

Agisoft Metashape Professional 高精度3D模型 + 多格式支持,协同工作无忧

Rose

Coolmuster Android Assistant for Mac(Android管理工具)

Mac相关知识分享

CST软件如何得到方向性系数随频率扫描的曲线

思茂信息

教程 仿真 cst

曲靖具有资质等保测评机构在哪里?电话多少?

行云管家

等保 堡垒机 等保评测 曲靖

铁路运输行业怎么定义?为什么要用到堡垒机?

行云管家

等保 堡垒机 铁路行业 运输

WebStorm 2023激活工具下载 WebStorm中文安装包

理理

比赛放榜!开源!Workshop!阿里妈妈将在国际顶会NeurIPS打出一键三连

新消费日报

面向金融场景的大模型 RAG 检索增强解决方案

阿里云大数据AI技术

人工智能 最佳实践 rag PAI

HarmonyOS开发宝典震撼来袭,卓越应用开发之旅一触即发,轻松启程!

HarmonyOS开发者

Cinema 4D中文破解版安装包-c4d激活补丁分享-mac/win

理理

PullTube for Mac(macOS在线视频下载器)中文激活版

理理

BetterDisplay Pro Mac(屏幕显示优化工具)

Mac相关知识分享

SmoothScroll for mac v1.6.0永久激活版 鼠标增强工具

Rose

我们为什么构建自己的serverless机器学习平台,而非使用AWS Lambda?_架构_Caleb Kaiser_InfoQ精选文章