@Rays
2017-06-08T20:08:38.000000Z
字数 1260
阅读 1662
Apple
语言开发
摘要: 在WWDC 2017大会上,Apple公布了ARKit。ARKit是一种为iOS构建增强现实App的框架,意在实现将虚拟内容精确且真实地浸入真实世界场景上。
作者: Sergio De Simone
正文:
在WWDC 2017大会上,Apple公布了ARKit。ARKit是一种为iOS构建增强现实(AR,augmented reality)App的框架,意在实现将虚拟内容精确且真实地浸入真实世界场景上。
ARKit的核心是为一些基本的关键功能提供支持,包括运动跟踪、水平面检测,以及尺度和环境光预测。
运动跟踪使用CoreMotion框架实现,Apple移动设备提供了专用的运动协处理器。该功能采用视像惯性测程(Visual Inertial Odometry),基于镜头捕捉的数据估计设备的三维定位及移动情况。据Apple介绍,该技术无需任何额外的标定即可确保很高的精确性。ARKit具备检测地板、桌子等水平面的能力,可以将虚拟物体精确地置于真实物理场景中,并追踪虚拟物体的移动。环境光预测是对虚拟物体产生真实阴影和光照效果的关键技术。
ARKit API支持两种主配置,即只追踪设备定位的ARSessionConfiguration,以及进一步追踪设备位置并检测真实世界表面的ARSessionConfiguration。所有被检测到的表面都会关联到一个ARPlaneAnchor对象,并可进一步使用提供物体到镜头的距离、位置和方向的ARHitTestResult进行描述。ARPlaneAnchor是ARAnchor的一个子类实例,可添加到AR场景中,实现在场景中放置虚拟物体。借助于ARSCView和ARSKView,ARKit很容易与SceneKit或SpriteKit集成以处理三维或二维的虚拟内容。此外,开发人员可以使用在这次WWDC大会上新发布的第二版Metal(Metal 2),实现对场景渲染的完全控制。
上面提及的Metal 2运行于Mac上,新版本中添加了对虚拟现实(VR,Virtual Reality)渲染和外部GPU的支持,并提供了新的API和更多优化,可帮助开发人员在App中使用这些新兴技术。但是在Metal的规划中,至2018年春季前,都没有规划去提供对用户可用的外部GPU支持。
以上快速概览了Apple ARKit。如需了解更多信息,可阅读AP的介绍,以及官方API参考。
Apple并未关闭对AP的未来计划。在Bloomberg的Emily Chang对Apple的CEO Tim Cook的一次采访中,Cook表示,ARKit奠定了Apple未来产品的基石。
目前ARKit包括在Xcode 9中,仍处于测试阶段。Xcode早已对注册开发人员可用。Apple还提供了一个样例项目,其中展示了将物体置于AR场景中的基本机制。
查看英文原文: ARKit Sets the Foundations for Augmented Reality on Apple’s Platform