AWS Deep Learning AMI 可帮助您快速轻松地开始使用机器学习。AMI 包含大量预建选项,可满足机器学习从业者的各种需求。如果您需要常见深度学习框架的最新版本,Deep Learning AMI 可提供在基于 Conda 的独立虚拟环境中安装的预建 pip 二进制文件。如果您希望测试高级框架功能或者对框架源代码进行微调,包含源代码的 Deep Learning AMI 可提供基于源的自定义框架安装。这些框架通常内建了常见二进制文件中没有的高级优化功能。
在 Volta GPU 上使用 TensorFlow 加快训练速度
包含源代码的 AMI 现在推出了 TensorFlow 1.5.0-rc1。TensorFlow 的这一预发布版本支持 NVidia CUDA 9 和 cuDNN 7 驱动程序,而这些驱动程序采用支持 EC2 P3 实例的 V100 Volta GPU。在测试中,我们在 p3.8xlarge 实例上使用 ImageNet 合成数据在 fp-16 模式下对 ResNet-50 基准进行训练,其速度比使用 TensorFlow 1.4.1 进行训练要快 1.8 倍。由于这是预发布版本,投产前需要进行测试。
在适用于 Ubuntu 和 Amazon Linux 的 Deep Learning AMI 上获取基于 Conda 的预建虚拟环境,以便用于包含 CUDA 8 和 cuDNN 6 的 TensorFlow 1.4.1 常见版本。基于 Conda 的 AMI 现在还推出了 TensorBoard,这是用于对 TensorFlow 模型训练进行监控和调试的可视化工具。要开始使用 TensorBoard,请参阅我们的分步指南。
深度学习框架最新信息
基于 Conda 的 Deep Learning AMI 现在推出了最新版本的热门深度学习框架。它们支持 Caffe 深度学习框架,并且包括 Keras 2.1.3、Microsoft Cognitive Toolkit 2.3.1 和 Theano 1.0。
快速部署和测试深度学习模型
全新 AMI 包含许多更新,有助于您为经过训练的模型快速创建推理终端节点。现在,您可以更快地测试和验证模型并将其与业务应用程序集成,从而减少开发工作原型所需的时间。
基于 Conda 且适用于 TensorFlow 的虚拟环境现在预先安装了 TensorFlow Serving。TensorFlow Serving 采用导出的 TensorFlow 模型,并会创建运行 gRPC 服务的服务器来托管该模型。此外,Apache MXNet 用户还可以使用 MXNet Model Server 来为其模型快速部署基于 HTTP 的推理 API。要想快速导出模型、托管服务器并测试推理 API,请根据我们的开始使用 TensorFlow Serving 和 MXNet Model Server 相关教程进行操作。
深度学习平台最新信息
适用于 Ubuntu 和 Amazon Linux 操作系统的所有 AMI 均使用最新版本的 NVidia GPU 驱动程序和操作系统进行了更新。现在,它们包含用于处理 Spectre 和 Meltdown 漏洞的安全补丁。
开始使用 AWS Deep Learning AMI
可以轻松开始使用 AWS Deep Learning AMI。我们的 AMI 选择主题有助于您选取适合您深度学习项目的 AMI。此外,我们还提供了大量的教程和开发人员资源,可帮助您快速在 AWS 上部署第一个深度学习模型。
您可在 AWS Marketplace 获取最新版本的 AMI。
在独立的虚拟环境中安装了预建 pip 二进制文件的 Deep Learning AMI:
基于源代码构建框架的 AMI:
作者介绍:
**
Sumit Thakur 是 AWS 深度学习高级产品经理。**他负责开发让客户能够轻松开始在云端进行深度学习的产品,他专注于使 Deep Learning AMI 引擎更易用。在业余时间,他喜欢亲近自然和观看科幻电视剧。
本文转载自 AWS 技术博客。
原文链接:
评论