如今,企业的数字化转型和智能升级必谈 AI,AI 在人们日常生活的中的产品和应用也随处可见,如智能音箱、AI 相机、人脸支付等。
但是,爆炸式增长的数据量、复杂的训练框架和算法,让很多企业现有的 AI 计算平台变得捉襟见肘:计算效率无法满足业务增加诉求,运营运维成本也居高不下。
华为云 AI 容器为客户提供更高性价比的算力,更简化了平台运维,提升 AI 计算效率 50%,加速了 AI 计算在各行业的落地和发展。
计算量 6 年增长 30 万倍 AI 平台扩容成本高
OpenAI 分析报告显示,从 2012 至 2018 年的 6 年时间,AI 训练使用的算力增长了 30 万倍,是同时期摩尔定律增长量的 5 倍。
这意味着,要保持计算速度不变,不能单单依靠芯片能力的升级,还必须增加计算设备投入。而专业 GPU 服务器配以高速网络、高速存储等设备,单台平均成本在 100 万左右,价格高昂,大部分企业难以承担。
系统日趋复杂 AI 平台运维难度激增
首先,不同的业务需要不同的 AI 训练框架、模型、加速库,如何在统一平台上管理不同的训练框架和模型,如何将线下训练快速部署到生产环境带来巨大挑战。
其次,AI 训练和公司业务使用不同的资源管理工具,使得运维团队需要掌握和使用多种资源管理工具,保障 GPU 利用率,增加运维复杂度。
再者, GPU 在集群内被不同业务团队共享,团队间的资源协调也会耗费不少精力。
公有云+容器化:AI 计算平台建设的必选之路
面对上述问题,各企业开始着手构建基于公有云和容器的 AI 计算平台,基于公有云的容器平台,能给客户带来什么样的好处呢?
更快速的获取算力资
面对 AI 计算需要的超大规模算力,自建 IDC 扩容周期长、一次性投入大,后期维护成本高,采用公有云,可以即申请即用,快速补充企业 IDC 算力的不足,同时具备更低的使用成本、无需关注基础设施维护、避免资源闲置造成浪费等优势,成为了客户扩充算力的最佳选择。
降低日常使用和运维难
用户搭建深度学习训练环境,需要准备带 GPU 的机器、安装 Python、TensorFlow、GPU 驱动等,如果要从开发环境到测试环境,再从测试环境到生成环境,涉及环境迁移过程中需要花很大精力来保证环境的一致性。
容器带来的标准化打包能力可以提供了绝佳的解决方案,将相关软件一并打包到镜像中,一次构建,即可在不同平台上运行,极大降低安装、部署的复杂度;同时各容器间相互隔离,可实现多训练框架并存,而且每一个框架都可以独立进行升级而不会影响其他业务,降低的日常运维的难度,让客户可以将更多的 精力集中在 AI 训练上。
但是,我们在与用户交流过程中发现,用户虽然认可公有云+容器的模式,但是在公有云上自建一套容器化的 AI 计算平台,对部分用户仍存在较大的技术门槛,尤其是那些尚未接触过容器的用户。
华为云就此推出了面向 AI 计算场景的容器服务——AI 容器,并于 2018 年在华为全联接大会发布,今年我们对 AI 容器进行了升级,在性能、易用性、可运维等方面都有了很大的提升。
华为云 AI 容器:更易使用和运维 提升 AI 计算效率 50%**
开箱即用 免除基础设施运
AI 容器采用华为云容器实例(CCI)作为基础设施层,得益于 CCI 的 Serverless 架构,用户完全无需关心主机的创建、管理、运维,而只需要在使用时申请所需要的算力资源即可(算力类型、CPU 核数、内存量),省去了基础设施的日常运维工作,用户可以更加专注于 AI 计算本身。
更快速的获取算力资
AI 容器基于全新的 Volcano 平台进行任务调度管理,Volcano 是华为云高性能批量计算平台,具有更高的调度性能,最高可达 1000 容器/秒,将算力获取的效率提升近 10 倍。
同时,有了 Volcano 的加持, AI 容器还可以基于拓扑和资源亲和进行任务调度,根据策略将关联任务调度到同一物理节点或二层网络内,极大的提升了 AI 训练过程中任务间通信及数据交互的效率。
秒级计费 资源性价比更高
AI 训练时客户需要快速、多次计算进行迭代,会对资源进行频繁的申请、释放,AI 容器采用按秒计费和套餐包的计费方式,真正做到按使用付费(PAYU),避免客户采用包周期等方式购买资源后,利用率不足而造成的浪费。
开放生态 支持主流训练框
随着 AI 平台容器化的深入,大量训练框架都已发布其容器版本,AI 容器目前已支持 Tensorflow, Caffe, Mxnet, Pytorch, MindSpore 等近十种主流训练框架,用户可以将训练代码平滑的迁移上云。
多样算力 用户选择更加灵活
AI 容器的能提供昇腾、鲲鹏、x86 和 GPU 等类型的算力资源,用户可以实现一套平台运行不同类型的应用,根据应用特点灵活选择算力资源,达到资源的最优配置。
添加小助手微信,加入【容器魔方】技术社群。
评论