当前位置:   article > 正文

使用 Unity 为 Meta Quest 3 开发混合现实体验

unity quest3 获取画面
混合现实能让用户在现实里与数字内容互动,借助空间计算实现、先进的传感器和追踪技术使得设备能够精确映射现实环境。混合现实同样能增强人类感知、介入周围环境的方式,提供真正的变革型和沉浸式用户体验。
为 Meta Quest 制作令人着迷的跨平台沉浸体验现在有了新的途径。本文将详细介绍 Meta OpenXR 软件包实验版 ,这套由 Open XR 和 Unity AR Foundation 驱动的工具可用于 Meta Quest 3、Meta Quest 2 和 Meta Quest Pro。

OpenXR 与 Unity AR Foundation

OpenXR 是一套面向 XR 的标准,让应用不需要重写代码就能触达多种硬件,极大地简化了 AR 和 VR 开发。由行业领袖们联合制定的 OpenXR 有着极强的互操作性,可让内容更轻松地接触更广的受众。
Unity AR Foundation 则是一套跨平台框架,专用于开发跨移动端与头戴 AR/VR 设备的应用,允许开发者将创作出的应用部署到多个平台。AR Foundation 结合了多种常见 SDK 的功能特性,包括 ARCore、ARKit 和 OpenXR 标准,提供了无缝的 Unity 工作流,让你能专注于释放自己的创造力。

Meta OpenXR 软件包实验版

Meta OpenXR 软件包实验版 可以为 AR Foundation 发布预览版的 Quest 支持。包括 支持 Quest 的关键功能 ,如透视(passthrough)、平面检测、设备追踪、射线投射和锚点。
它还包括了 Simple AR 等示例项目的 Quest 专属更新 ,该项目演示了基本的平面检测和射线投射,以及 锚点 ,它能以特定的位置和方向将对象摆放到物理环境中。
利用透视支持,开发者可以无缝融合虚拟与现实世界,让用户在参与虚拟内容的同时看到现实环境并与之互动。通过将高精度虚拟对象覆盖到现实表面上,玩家将能随时随地在现实空间体验虚拟内容。
如果想要为 Meta Quest 制作有情境感知(Context Awareness)的体验,Unity AR Foundation 的平面检测功能将极为实用。有了平面检测,应用可以分析并解读现实环境,让虚拟对象可以智能地与现实互动,并且可以自行适应不同的房间、环境布局。

开始构建 Meta Quest 3 体验

模板、示例内容和预定义互动可以节省大量开发时间,所以我们推出了全新的 XR 模板和示例。你将能够快速设立项目,探索复杂的对象交互,并看到用户界面的示例。请在 Unity Hub 关注新模板的发布。
Meta OpenXR 软件包 实验版下载方式: 请下载 Unity 2022 LTS 及以上版本,打开 Unity 编辑器的 Package Manager,点击左上角的加号键,选择 Add package by name 并输入 com.unity.xr.meta-openxr。
下载完毕后,软件会自动下载其他必要软件包,如 OpenXR Plugin 和 AR Foundation。XR 示例内容可在 Github 的 Simple ARAnchors 找到。
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/花生_TL007/article/detail/125013
推荐阅读
相关标签
  

闽ICP备14008679号