苹果在 WWDC 2017 大会上发布了用于在移动设备上处理 AI 任务的 API 框架 Core ML。将 AI 从云端移动到设备上对设备提出了更高的要求,比如 CPU 和功耗。为了让设备上的 AI 更强大,苹果开始发力专门为 AI 设计的芯片。
据匿名者透露,该芯片在苹果内部被称为 Apple Neural Engine,旨在提升苹果设备处理 AI 任务的能力,比如面部识别和语音识别等。不过苹果官方并没有对此事做出回应。
苹果在 AI 领域一直想赶超 Amazon 和 Alphabet。虽然 Siri 让苹果在语音识别方面走在了前面,不过其他公司也在积极地部署他们的 AI 产品线,包括 Amazon 的 Echo 和 Google 的家庭助手。AI 芯片可以助力苹果集成更多的设备,包括自动驾驶汽车和增强现实设备。
“苹果未来的两个主攻领域——自动驾驶机车和增强现实——它们都需要以 AI 为核心”。
苹果设备目前同时使用了主处理器和图形处理器来处理 AI 任务。新的芯片让设备将 AI 相关的任务交给专门的模块去处理,从而降低功耗。
高通最新的骁龙芯片提供了专门处理 AI 任务的模块。Google 在 2016 年也发布了它的第一款芯片,叫作 Tensor Processing Unit,在 Google 的数据中心里,它被用于增强搜索结果和图像识别。在今年的 IO 开发大会上,Google 宣布了芯片的新版本,可用于为他们的云客户提供服务。Nvidia 也向他们的云客户销售类似的芯片。
据匿名者透露,苹果最终会将这款芯片集成到他们的大部分产品上,包括 iPhone 和 iPad。苹果已经在未来的 iPhone 原型机上测试过该芯片,不过尚不清楚能否在今年面市。
苹果移动操作系统和官方软件将深度集成该芯片,比如可能将拍照的面部识别功能、一部分语音识别功能和键盘输入预测功能移交给芯片去完成。苹果还打算向第三方开发者开放对芯片的访问,这样第三方应用的 AI 任务也可以交由专有芯片去完成。
评论