继 Google CEO Sundar Pichai 早些在 Google I/O 大会上公布了 TPU(Tensor Processing Unit, 张量处理单元)的研发之后,最近 Google 的硬件工程师 Norm Jouppi 又公布了 TPU 的若干细节。
TPU 为了更好的用 TensorFlow( TF )来实现机器学习功能而特意优化了 ASIC ,降低了计算精度以减少完成每个操作所需要的晶体管数量。目前为止 Google 还没有提供性能测试数据,但 Google 声称这些优化有助于提高芯片每秒钟处理的操作数量。
Google 表示这个项目几年前就已经开始了,而且它的技术领先了当前业界水平整整七年,但 Google 并没有向社区提供可供分析的数据。Jouppi 说只需 22 天就可以完成这种芯片从原型测试到数据中心部署的完整流程。这也是 Google 将研究成果应用于实际生活的又一个例子。
大家关心的问题集中于 TPU 与大家熟悉的东西之间有何异同,比如 Nvidia 的 Telsla P100 等芯片,或者 PaaS 提供者 Nervana 提供的机器学习服务等。Google 公布的信息中表示 TPU 也许可以与 Nvidia 四月份发布的Tesla P100 芯片相类比。
最近有消息说Google 在自行研发和生产芯片,并分析了对Intel 等业界龙头公司的潜在影响。Jouppi提到 Google 实际上想要引领的是机器学习领域,并且要让客户享受到这些变革带来的好处,但他这一次没有给出更细节的计划及内容。
在原贴的评论中有人提到 TPU 有可能会取代 Nvidia 的 P100 和 TX1 ,以及 IBM 的 TrueNorth,但没有给出详细的评测数据和对比。Google 已经将 TPU 用于许多内部项目,如机器学习系统 RankBrain 、Google街景、以及因为在二月份的围棋比赛中击败韩国大师李世石而声名鹊起的 AlphaGo 等。但 Google 没有给出将 TPU 应用于外部项目的计划。
查看英文原文: Google Details New TensorFlow Optimized ASIC
感谢张龙对本文的审校。
给InfoQ 中文站投稿或者参与内容翻译工作,请邮件至 editors@cn.infoq.com 。也欢迎大家通过新浪微博( @InfoQ , @丁晓昀),微信(微信号: InfoQChina )关注我们。
评论