Caicloud Clever™ 是才云推出的全国首个云化 AI 平台,它基于国内 500 强企业落地实践,沉淀企业通用数据智能业务,覆盖全场景,可为企业 AI 业务提供一站式、高效、易用的开发、交付与运行管理体验。今天,才云隆重推出 Caicloud Clever v1.5.0,为客户实现 AI 普惠化落地带来全新体验。
在新一轮科技革命的浪潮中,AI 已经成为全行业转型升级的核心驱动力。疫情当前,不少企业开始用 AI 推动生产经营和员工安全复工,如用 AI 智能客服提供语音咨询服务,有效规避客服人员集中办公;通过营销 AI 自动开展线上活动,以非接触形式为客户提供差异化服务等。
才云 Caicloud Clever 是基于容器底层技术的云原生 AI 平台,提供数据管理、模型管理、流程管理、资源管理四大核心能力,涵盖企业从数据治理、模型开发、模型训练、模型调优、模型发布、AI 服务弹性运营的全流程自动化管理:
数据管理:机器学习和 AI 以数据为原料,才云 Caicloud Clever 平台提供结构化与非结构化数据的存储、版本化管理、协同标注等服务;
模型管理:才云 Caicloud Clever 通过基于线上 Notebook 的协同模型开发、超参数搜索、模型评估、多模型比对等能力,降低模型开发的门槛,并通过模型仓库对宝贵的模型资产进行版本化管理,实现模型的可复现;
流程管理:才云 Caicloud Clever 的工程项目实现了 AI 开发运维的流程自动化,通过自动化提升端到端 AI 开发、发布、运维的整体效率;
资源管理:才云 Caicloud Clever 扩展了 Kubernetes 和 Kubeflow 的调度能力,实现了对 CPU、GPU 的细粒度虚拟化、共享、分布式调度,并能对海量数据和复杂模型进行分布式训练加速和弹性推理服务。
为帮助更多客户根据不同场景、产品、用户群体定制 AI 解决方案,才云特推出 Caicloud Clever 全新版本 v1.5.0。新版本进一步优化 AutoML,算法覆盖更多场景,通过平台+预置算法解决方案,帮助企业快速落地 AI 服务,在更多场景下以更高效的方式获取更高收益。
下面是才云新一代云化 AI 平台 Caicloud Clever v1.5.0 四大新特性的详解。
AutoML 进一步优化,模型开发更高效
AutoML 的目的在于通过自动化的数据驱动将机器学习应用于现实问题。出于对技术自主可控和规模化应用的考量,才云 Caicloud Clever 持续提升自动化能力,降低使用门槛以贴合企业现实人力和技术环境。
在新版本中,AutoML 以工程视角持续提升端到端的模型交付体验,重点优化自动模型训练、超参数自动寻优等关键功能。用户只需提供训练数据和初始参数,即可让才云 Caicloud Clever 自动完成调参,锁定最优超参数,最大化提升训练效率及效果。
同时,才云 Caicloud Clever 提供的过程可视化能帮助用户快速了解模型训练过程中超参数所发挥的功能,为企业更好地应用 AI 积累必须的技术认知、直觉和经验。
预置算法覆盖更多场景,开箱即用
作为对业务负责的下一代云化 AI 平台,才云 Caicloud Clever 封装了多种企业业务场景,以 500 强企业落地成果赋能每一位用户定制化 AI 应用开发。
在 Caicloud Clever v1.5.0 中,才云新增超过 20 种预置算法模型,涵盖图像分类、图像分割、图像检测、OCR、机器翻译、文本分类、传统机器学习等,覆盖企业 AI 应用全场景。方便用户更快、更灵活地找到符合实际应用的解决方案,并得到优质的模型与预测效果。
服务在线部署,性能提升更极致
对企业客户来说,完成模型训练后,为了确定其性能和准确性是否满足业务需求,企业往往需要对其进行测试、验证和评估。
在新版本中,除了支持用户利用历史数据测试模型性能,才云 Caicloud Clever 现在也提供对外在线部署服务功能与快速便捷的模型在线验证功能。模型训练好后,在正式发布使用前,用户可以通过页面上传图片进行实时数据在线测试,快速校验模型效果,进而综合不同业务规则衡量模型的整体适用性。
模型服务支持 GPU 显存共享
GPU 是支撑 AI 应用的关键计算加速设备。当前,TensorFlow、PyTorch 等主流框架只支持将一个或多个 GPU 分配给一个模型服务。数据表明,当模型服务成功部署后,GPU 资源利用率大多只有 20%-30%。如果一个模型服务在生产环境中独占一块昂贵的 GPU,无疑会给企业造成极大的资源浪费。
在新版本中,为了提高显存资源的利用率,才云 Caicloud Clever 在原先按品牌、型号调度 GPU 资源的基础上,新推出对多个模型服务共享 GPU 显存的支持。并行运行多个 AI 模型服务时,用户可以把 GPU 拆分成多个部分,为模型训练等任务分配更大的 GPU 分片,把较少的资源提供给模型测试等资源占用较小的任务,显著提高计算资源的利用率和机器学习吞吐量。
拥抱转型,拥有未来
防疫不分线上线下,业务开展和市场竞争也不分线上线下。面对由疫情引发的经济下行压力,很多企业已经开始走向对内削减公司运营成本、对外创新服务终端客户模式。疫情过后,企业将迎来真正决定行业未来前进方向的关键时期。
在这个背景下,如果企业能迅速开发、上线定制化的各类 AI 服务,利用智能系统自动化部分内部管理流程,在不同的场景和业务中根据数据做智能决策,那么企业增加营收的目标也许不再需要通过增加人力资源投入就能实现。
根据 2019 年业内的一份报告,一家企业如果想完全自主优化、管理机器学习模型,至少需要 1-6 名专业数据科学家。借助才云的云化 AI 平台 Caicloud Clever,大量人力不足的企业能享受到普惠 AI,即便不具备专家,普通 IT 团队也能把 AI 模型服务开发简化成工厂作业,快速开发、上线各类更贴近产业特性的应用,这对于企业的长期发展和技术战略布局有着实际意义。
本文转载自才云 Caicloud 公众号。
原文链接:https://mp.weixin.qq.com/s/8eF_dQBJQ9hg5dY6-uoaNw
活动推荐:
2023年9月3-5日,「QCon全球软件开发大会·北京站」 将在北京•富力万丽酒店举办。此次大会以「启航·AIGC软件工程变革」为主题,策划了大前端融合提效、大模型应用落地、面向 AI 的存储、AIGC 浪潮下的研发效能提升、LLMOps、异构算力、微服务架构治理、业务安全技术、构建未来软件的编程语言、FinOps 等近30个精彩专题。咨询购票可联系票务经理 18514549229(微信同手机号)。
评论