机器学习 (ML) 正在转变企业业务运营以及人们的生活方式。无论是查找共乘同伴、推荐产品或者播放列表、识别图像中的对象,还是优化市场营销活动,ML 和预测是这些体验的核心所在。AIPlatform 旨在提供一个世界级的企业就绪平台以托管您的所有变革性的 ML 模型,从而为像您这样致力于利用 ML 改造世界的企业提供支持。
作为我们持续承诺的一部分,我们高兴的宣布全面开通基于 Google Kubernetes Engine (GKE) 后端的 AI Platform Prediction。新的后端架构旨在通过新的硬件选项(Compute Engine 机器类型 和 NVIDIA 加速器)提高可靠性和灵活性、减少开销延迟,改进长尾延迟。除了产品 Beta 测试期间就可用的标准功能(例如,自动伸缩、访问日志以及请求/响应日志)之外,我们还提供几项有助于提升健壮性、灵活性和可用性的更新:
高内存/高 CPU 机器类型中的 XGBoost/ scikit learn 模型:许多数据科学家喜欢 XGBoost 和 scikit learn 模型对于生产预测所具有的简便性和强大性。借助 AIPlatform,只需几下点击即可便捷地部署使用这些框架训练的模型—— 我们将在您选择的硬件上处理服务基础架构的复杂性。
资源指标:维护生产环境中的模型的一个重要部分是了解其性能特点,例如,GPU、CPU、RAM 和网络利用率。这些指标能够帮助制定有关使用什么硬件的决策,来最大限度减少延迟和优化性能。例如,您可以查看一段时间的模型副本总数,以帮助您了解您的自动伸缩模型如何响应流量变化以及如何更改最小副本(minReplicas)以优化成本和/或延迟。对于在 GCE 机器类型中部署的模型,现在可从 Cloud Console 和 Stackdriver Metrics 查看资源指标。
区域端点:我们在三个区域(us-central1、europe-west4 和 asia-east1)引入了新的端点,并通过更好的区域隔离来提高可靠性。在区域端点部署的模型位于指定区域内。
VPC 服务控件 (Beta):用户可以定义一个安全范围并且部署仅限访问该范围内或者另一个桥接范围内的资源和服务的在线预测模型。可从该范围内调用 CAIP 在线预测 API。只允许受限网络或者安全范围内的 VM 和服务的内网 IP 地址访问 CMLE 的 API,而不必经过公共互联网。
但预测并非仅止于使用训练好的模型。典型的 ML 工作流涉及分析和了解模型和预测。我们的平台集成了其他重要的 AI 技术以简化您的 ML 工作流并让您更加高效:
Explainable AI(可解释的 AI)。要更好地了解您的业务,您需要更好地了解您的模型。Explainable AI 提供有关每个请求的预测的信息,并且仅在 AI Platform 提供。
What-if Tool。可视化您的数据集,并更好地理解在平台部署的您的模型的输出。
持续评估。基于对发送至您的模型的请求的正确标注,获得有关您的模型的性能指标。制定决策以基于一段时间的性能状况重新训练或者改进模型。
Waze 数据科学家技术主管 PhilippeAdjiman 指出:“通过为我们提供一个适用于我们的模型的即时、托管和健壮的服务层,[AI Platform Prediction] 显著提高了我们的速度,并使我们能够专注于改进特征和建模。”
所有这些功能均在一个具有企业支持的完全托管的无集群环境中提供 —— 无需支持或者管理您自己的高度可用的 GKE 集群。我们还负责配额管理并负责保护您的模型免受来自客户端发送过多流量导致的过载的影响。我们托管平台的这些功能使您的数据科学家和工程师能够专注于业务问题而不是管理基础设施。
评论