在 WWDC 2017 大会上,Apple 公布了 ARKit 。ARKit 是一种为 iOS 构建增强现实(AR,augmented reality)App 的框架,意在实现将虚拟内容精确且真实地浸入真实世界场景上。
ARKit 的核心是为一些基本的关键功能提供支持,包括运动跟踪、水平面检测,以及尺度和环境光预测。
运动跟踪使用 CoreMotion 框架实现,Apple 移动设备提供了专用的运动协处理器。该功能采用视像惯性测程(Visual Inertial Odometry),基于镜头捕捉的数据估计设备的三维定位及移动情况。据Apple 介绍,该技术无需任何额外的标定即可确保很高的精确性。ARKit 具备检测地板、桌子等水平面的能力,可以将虚拟物体精确地置于真实物理场景中,并追踪虚拟物体的移动。环境光预测是对虚拟物体产生真实阴影和光照效果的关键技术。
ARKit API 支持两种主配置,即只追踪设备定位的 ARSessionConfiguration ,以及进一步追踪设备位置并检测真实世界表面的 ARSessionConfiguration 。所有被检测到的表面都会关联到一个 ARPlaneAnchor 对象,并可进一步使用提供物体到镜头的距离、位置和方向的 ARHitTestResult 进行描述。ARPlaneAnchor 是 ARAnchor 的一个子类实例,可添加到 AR 场景中,实现在场景中放置虚拟物体。借助于 ARSCView 和 ARSKView ,ARKit 很容易与 SceneKit 或 SpriteKit 集成以处理三维或二维的虚拟内容。此外,开发人员可以使用在这次 WWDC 大会上新发布的第二版 Metal (Metal 2),实现对场景渲染的完全控制。
上面提及的 Metal 2 运行于 Mac 上,新版本中添加了对虚拟现实(VR,Virtual Reality)渲染和外部 GPU 的支持,并提供了新的 API 和更多优化,可帮助开发人员在 App 中使用这些新兴技术。但是在 Metal 的规划中,至 2018 年春季前,都没有规划去提供对用户可用的外部 GPU 支持。
以上快速概览了 Apple ARKit。如需了解更多信息,可阅读 AP 的介绍,以及官方 API 参考。
Apple 并未关闭对 AP 的未来计划。在 Bloomberg 的 Emily Chang 对 Apple 的 CEO Tim Cook 的一次采访中,Cook 表示,ARKit 奠定了Apple 未来产品的基石。
目前ARKit 包括在Xcode 9 中,仍处于测试阶段。Xcode 早已对注册开发人员可用。Apple 还提供了一个样例项目,其中展示了将物体置于AR 场景中的基本机制。
查看英文原文: ARKit Sets the Foundations for Augmented Reality on Apple’s Platform
活动推荐:
2023年9月3-5日,「QCon全球软件开发大会·北京站」 将在北京•富力万丽酒店举办。此次大会以「启航·AIGC软件工程变革」为主题,策划了大前端融合提效、大模型应用落地、面向 AI 的存储、AIGC 浪潮下的研发效能提升、LLMOps、异构算力、微服务架构治理、业务安全技术、构建未来软件的编程语言、FinOps 等近30个精彩专题。咨询购票可联系票务经理 18514549229(微信同手机号)。
评论